JP2020501206A - Online cartoon identification system and method based on region of interest - Google Patents

Online cartoon identification system and method based on region of interest Download PDF

Info

Publication number
JP2020501206A
JP2020501206A JP2018541398A JP2018541398A JP2020501206A JP 2020501206 A JP2020501206 A JP 2020501206A JP 2018541398 A JP2018541398 A JP 2018541398A JP 2018541398 A JP2018541398 A JP 2018541398A JP 2020501206 A JP2020501206 A JP 2020501206A
Authority
JP
Japan
Prior art keywords
interest
region
information
image
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018541398A
Other languages
Japanese (ja)
Other versions
JP6648289B2 (en
Inventor
ヒドン ユン
ヒドン ユン
ホガプ カン
ホガプ カン
テヒョン キム
テヒョン キム
Original Assignee
ディーアールエムインサイド カンパニーリミテッド
ディーアールエムインサイド カンパニーリミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディーアールエムインサイド カンパニーリミテッド, ディーアールエムインサイド カンパニーリミテッド filed Critical ディーアールエムインサイド カンパニーリミテッド
Publication of JP2020501206A publication Critical patent/JP2020501206A/en
Application granted granted Critical
Publication of JP6648289B2 publication Critical patent/JP6648289B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Technology Law (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、関心領域に基づくオンライン漫画識別システムおよび方法に関する。さらに詳しくは、オンラインを介して提供されるオンライン漫画コンテンツを構成する原本イメージと該原本イメージの一部、または、全部を複製した識別対象イメージの各々から関心領域を検出し、前記関心領域から抽出した特徴点に基づいて前記識別対象イメージに対応するオンライン漫画コンテンツを識別できるように提供する関心領域に基づくオンライン漫画識別システムおよび方法に関する。The present invention relates to an online cartoon identification system and method based on a region of interest. More specifically, a region of interest is detected from each of an original image constituting online manga content provided online and an identification target image obtained by copying a part or all of the original image, and extracted from the region of interest. The present invention relates to a system and method for online comics identification based on a region of interest that provides online comics content corresponding to the image to be identified based on the identified feature points.

Description

本発明は、関心領域に基づくオンライン漫画識別システムおよび方法に関する。さらに詳しくは、オンラインを介して提供されるオンライン漫画コンテンツを構成する原本イメージと該原本イメージの一部、または、全部を複製した識別対象イメージの各々から関心領域を検出し、前記関心領域から抽出した特徴点に基づいて前記識別対象イメージに対応するオンライン漫画コンテンツを識別できるように提供する関心領域に基づくオンライン漫画識別システムおよび方法に関する。   The present invention relates to an online cartoon identification system and method based on a region of interest. More specifically, a region of interest is detected from each of an original image constituting online comic content provided via online and an identification target image obtained by copying a part or all of the original image, and extracted from the region of interest. The present invention relates to a system and method for identifying online comics based on a region of interest that provides online comic content corresponding to the image to be identified based on the identified feature points.

今、ネットワークを通じてオンライン(online)を媒介とするコンテンツ(contents)の掲載および共有の機能が活性化していて、これを通じてコンテンツを製作して流通する著作権者は、様々なポータルサイトを通じて自分のコンテンツをアップロードして流通していて、これによってユーザーは、様々なコンテンツ著作物を、オンラインを介して容易に収得することができる。   Nowadays, the function of posting and sharing contents via online is activated through a network, and a copyright holder who produces and distributes contents through this function can use his / her own contents through various portal sites. Is uploaded and distributed, so that the user can easily obtain various content copyrighted works online.

しかし、オンラインを介するコンテンツの収得が容易になるにつれて、オンラインを介するコンテンツの複製がさらに容易になり、これによって、ポータルサイトを通じて掲載されたコンテンツをダウンロードするか、キャプチャーすることによって複製コンテンツを生成し、これを非法でオンラインを介して流通させる非法ケースの頻度がさらに増えている。   However, as it becomes easier to acquire content online, it becomes easier to duplicate content online, thereby creating duplicate content by downloading or capturing content posted through a portal site. However, the frequency of non-law cases in which this is illegally distributed online is increasing.

これによって、著作権者の権利が多く侵害されているだけでなく、著作物における正当な費用を提供してコンテンツを購読するユーザーも被害を受けている。   This not only infringes much on the rights of copyright owners, but also hurt users who subscribe to content by providing legitimate costs for copyrighted works.

こういったコンテンツの中でも、ウェブ漫画(web toon)のようなオンライン漫画関連のコンテンツは、もっとも人気の高いコンテンツの一つであって、これによって、もっとも多くの非法複製コンテンツが横行する状況であるため、今こういったオンライン漫画と関連された非法複製コンテンツを予防するための様々な技術を適用して、非法複製コンテンツを識別し、予防するための技術が登場している。   Among these contents, contents related to online comics, such as web comics, are one of the most popular contents, and thus the situation where the most illegally copied contents are rampant. For this reason, techniques for identifying and preventing illegally copied content by applying various techniques for preventing such illegally copied content related to online comics have been developed.

例えば、オンライン漫画コンテンツを複製した非法複製コンテンツを構成する個別イメージの全ての特徴点等を抽出して、順に比べる方案が提案されているが、こういった方案を適用するためには、オンライン漫画コンテンツの全体領域でオンライン漫画コンテンツから抽出された特徴点が位置する空間領域に対応する領域を非法複製コンテンツから識別することが先行されるべきである。   For example, a method has been proposed in which all the feature points of individual images that constitute illegally copied content obtained by copying online comic content are compared and compared in order. It should be preceded by identifying, from the illegally copied content, an area corresponding to a spatial area where the feature points extracted from the online comic content are located in the entire area of the content.

しかし、非法複製者は、特定回のオンライン漫画コンテンツを任意の様々なサイズに変更するか、一部をクリッピングして非法複製コンテンツを生成するため、前述の方案を適用する時、オンライン漫画コンテンツから抽出された特徴点に対応する空間領域を非法複製コンテンツから特定することが難しく、全ての特徴点を抽出しても、これをマッチングさせることは難しいのみならず、一つのイメージの識別のために数々の特徴点データの抽出が要求され、これによって、演算量が大幅に増えるようになり、非法複製コンテンツの一つを識別するために、相当なる処理時間が要求される。このような方案は、非効率なだけでなく、パフォーマンス保証も難しいという問題がある。   However, illicit duplicators may change the size of the online comic content in a certain number of times to any size, or clip the part to generate illegally duplicated content. It is difficult to identify the spatial region corresponding to the extracted feature points from the illegally copied content, and even if all feature points are extracted, it is not only difficult to match them, but also to identify one image. Extraction of a number of feature point data is required, which greatly increases the amount of computation, and requires a considerable processing time to identify one of the illegally copied contents. Such a method has a problem that it is not only inefficient but also difficult to guarantee performance.

さらに、オンライン漫画コンテンツをウェブサイトに掲示するサーバーで前記オンライン漫画コンテンツを構成する原本イメージを複数のイメージとランダム分割して管理する場合、単一イメージで構成されるオンライン漫画コンテンツの特性上、特定場面が複数のイメージに分かれて配置される場合、が発生することがあり、こういった場合、原本イメージを構成する複数のイメージの各々に分かれた特定場面において特徴点を抽出しても、該単一原本イメージから特定場面を一部抜粋して非法複製したイメージとの比較が難しくなるという問題が発生する。   In addition, when a server that posts online comic content on a website manages the original image that constitutes the online comic content by randomly dividing it into a plurality of images, it is necessary to specify the characteristics of the online comic content that is composed of a single image. When a scene is divided into a plurality of images, a situation may occur.In such a case, even if a feature point is extracted in a specific scene divided into each of a plurality of images constituting an original image, the feature point is not affected. A problem arises in that it is difficult to compare a part of a specific scene extracted from a single original image with an illegally duplicated image.

この時、前記特定場面は、単一カット、単一コマ、単一パネル、または、単一フレームで定義されることができる。   At this time, the specific scene may be defined as a single cut, a single frame, a single panel, or a single frame.

また、最近では、原本イメージの一部の場面(または、カット(cut))をキャプチャーのような方式で切り取って、チャットウィンドウの顔文字の用途や、削除防止のような様々な用途で使われていて、こういった用途で使われる場面イメージ(または、カットイメージ)に関心を示すユーザーが、該場面イメージが含まれたコンテンツを検索するために様々なイメージ検索に基づく検索ツールを用いているが、こういった場面イメージも、様々な大きさで製作され、前述によって原本イメージとの特徴点の比較を通じた検出が容易ではない。   Recently, some scenes (or cuts) of an original image are cut out by a method such as capture, and are used for various purposes such as emoticon of a chat window and prevention of deletion. In addition, users who are interested in scene images (or cut images) used for such purposes use various image search-based search tools to search for content including the scene images. However, such scene images are also produced in various sizes, and as described above, it is not easy to detect through comparing feature points with the original image.

従って、オンラインを介して掲載されたオンライン漫画を複製したコンテンツを簡単に識別できるように支えて、これを通じて非法複製コンテンツの流通を事前に遮断するとともにユーザーが関心のある特定場面のイメージと連関するコンテンツにおける情報を提供して、ユーザーの検索の便利性を高める代案が要求されている。   Therefore, it is possible to easily identify the content copied from online comics posted online, thereby cutting off the distribution of illegally copied content in advance and linking it with the image of a specific scene in which the user is interested. There is a need for alternatives that provide information in the content to enhance the user's search convenience.

国際公開第2016/125997号International Publication No. WO 2016/125997

本発明は、イメージから一つの意味のある場面(または、カット)で構成された関心領域を識別し、該関心領域を抽出して正規化した後、HOGに基づく映像分析を介して、特徴点を抽出する方式を介して識別対象イメージとオンライン漫画コンテンツを構成する原本イメージの相互の関心領域別に特徴点を比較できるように支援することによって、既存の特徴点の抽出方式より演算量を大幅に減らせるように支援して、識別対象イメージに対応するコンテンツ識別における処理速度を高めるとともに、原本イメージを様々な形にクリッピングして生成するか、様々な大きさで製作した識別対象イメージと連関するコンテンツにおける識別の精度を高めることにその目的がある。   The present invention identifies a region of interest composed of a single meaningful scene (or cut) from an image, extracts the region of interest, normalizes the region of interest, and then extracts feature points through HOG-based image analysis. By comparing the feature points of the image to be identified and the original image that constitutes the online manga content in each region of interest through the method of extracting Helping to reduce the processing speed of content identification corresponding to the image to be identified and increasing the processing speed and clipping the original image into various shapes or linking it to the image to be identified manufactured in various sizes The purpose is to increase the accuracy of identification in content.

本発明の実施例による関心領域に基づくオンライン漫画識別システムは、オンライン漫画コンテンツを構成する一つ以上の原本イメージからエッジ検出を介して関心領域を抽出する関心領域抽出部と、前記関心領域を予め設定した正規化の大きさで正規化した正規化イメージを生成する正規化部と、前記正規化イメージを予め設定した大きさの複数のブロックに分割し、HOG(Histogram of Oriented Gradient)に基づいて前記ブロック別に一つ以上の支配勾配を算出する映像分析部と、前記関心領域を構成する前記ブロック別の前記一つ以上の支配勾配を予め設定した基準に従って2進化処理したNビット値の特徴点の情報を前記関心領域に対応して生成する特徴点抽出部および前記特徴点の情報を基準特徴点の情報として設定し、前記原本イメージに対応する前記オンライン漫画コンテンツのコンテンツ情報とマッチング保存し、識別対象イメージを受信する時、前記関心領域抽出部と、正規化部と、映像分析部および特徴点抽出部とを制御して、前記識別対象イメージに対応して特徴点の情報を生成した後、前記基準特徴点の情報と比べて、相互一致する基準特徴点の情報にマッチングするコンテンツ情報を前記識別対象イメージに対応して提供する制御部とを含むことができる。   An online cartoon identification system based on a region of interest according to an embodiment of the present invention includes a region-of-interest extraction unit that extracts a region of interest from one or more original images constituting online comic content through edge detection, and pre-determines the region of interest. A normalization unit that generates a normalized image normalized by the set normalization size; and divides the normalized image into a plurality of blocks of a predetermined size, based on a HOG (Histogram of Oriented Gradient). A video analysis unit that calculates one or more dominant gradients for each block, and a feature point of an N-bit value obtained by binarizing the one or more dominant gradients for each of the blocks constituting the region of interest according to a preset standard And a feature point extraction unit for generating information of the feature point corresponding to the region of interest. Set as point information, matched and stored with the content information of the online comic content corresponding to the original image, and when receiving the image to be identified, the region of interest extraction unit, the normalization unit, the video analysis unit and the features After controlling the point extraction unit to generate feature point information corresponding to the identification target image, the content information matching the information of the reference feature points that match each other is compared with the reference feature point information. A control unit that provides the image corresponding to the identification target image.

本発明に関する一例として、前記コンテンツ情報は、前記オンライン漫画コンテンツの特定回においてその回の情報を含むことを特徴とすることができる。   As an example related to the present invention, the content information may include information on a specific time of the online comic content.

本発明に関する一例として、前記関心領域抽出部は、前記原本イメージを横および縦方向にスキャンしてエッジを検出し、前記オンライン漫画コンテンツを構成する原本イメージが複数である場合、前記原本イメージを順に連結して、単一イメージで生成した後、前記エッジを検出することを特徴とすることができる。   As an example related to the present invention, the region of interest extracting unit scans the original image in a horizontal and vertical direction to detect edges, and when there are a plurality of original images constituting the online comic content, the original images are sequentially sorted. The edge may be detected after being connected and generated as a single image.

本発明に関する一例として、前記関心領域抽出部は、前記原本イメージの上端、または、下端に接する特定の関心領域が存在する場合、前記特定の関心領域を除くか、前記原本イメージと連続する他の原本イメージから前記特定の関心領域に連続して繋がる関心領域を前記特定の関心領域に連結して、一つの関心領域と設定して抽出することを特徴とすることができる。   As an example related to the present invention, the region of interest extraction unit, when there is a specific region of interest in contact with the upper end of the original image, or the lower end, excluding the specific region of interest, or other continuous with the original image A region of interest continuously connected to the specific region of interest may be connected to the specific region of interest from the original image and set as one region of interest and extracted.

本発明に関する一例として、前記特徴点抽出部は、単位ブロックを予め設定した個数の複数のセルに分割し、HOGに基づいて単位セル別に算出した勾配を聚合して、方向別の勾配の大きさを算出し、予め設定した基準大きさ以上の大きさを有する一つ以上の支配勾配を前記単位ブロックに対応して算出することを特徴とすることができる。   As an example related to the present invention, the feature point extracting unit divides the unit block into a plurality of cells of a preset number, combines the gradients calculated for each unit cell based on the HOG, and calculates the magnitude of the gradient for each direction. Is calculated, and one or more dominant gradients having a size equal to or larger than a preset reference size are calculated corresponding to the unit block.

本発明に関する一例として、前記特徴点抽出部は、前記一つ以上の支配勾配の各々の方向によって予め設定した複数の角度範囲別に支配勾配の存在可否を判断し、前記複数の角度範囲別に前記支配勾配の存在可否によって2進化処理することを特徴とすることができる。   As an example related to the present invention, the feature point extracting unit determines whether or not there is a dominant gradient for each of a plurality of angular ranges set in advance according to each direction of the one or more dominant gradients, and determines the dominance for each of the plurality of angular ranges. Binary processing may be performed according to whether or not a gradient exists.

本発明に関する一例として、前記制御部の制御によって前記基準特徴点の情報と前記コンテンツ情報がマッチングして保存される保存部をさらに含むことを特徴とすることができる。   According to an aspect of the present invention, the information processing apparatus may further include a storage unit configured to store the information of the reference feature point and the content information in a matching manner under the control of the control unit.

本発明に関する一例として、前記制御部は、前記識別対象イメージに複数の関心領域が含まれた場合、前記複数の関心領域の各々の特徴点の情報と一致する基準特徴点の情報によるコンテンツ情報を識別し、前記複数の関心領域に対応して複数の相違のコンテンツ情報が識別された場合、もっとも多く識別されたコンテンツ情報を前記識別対象イメージに対応するコンテンツ情報として提供することを特徴とすることができる。   As an example related to the present invention, when a plurality of regions of interest are included in the identification target image, the control unit may generate content information based on information of reference feature points that match information of feature points of each of the plurality of regions of interest. Identifying, and when a plurality of different pieces of content information are identified corresponding to the plurality of regions of interest, providing the most identified content information as content information corresponding to the identification target image. Can be.

本発明の実施例による相違の複数のオンライン漫画コンテンツの各々に対応し、回次別に原本イメージの関心領域別の特徴点における基準特徴点の情報が回次別のコンテンツ情報とマッチングして保存されたDBを含むサーバーの関心領域に基づくオンライン漫画識別方法は、識別対象イメージを受信し、前記識別対象イメージにおけるエッジ検出を介して関心領域を抽出する段階と、前記関心領域を予め設定した正規化の大きさで正規化した正規化イメージを生成する段階と、前記正規化イメージを予め設定した大きさの複数のブロックに分割し、HOG(Histogram of Oriented Gradient)に基づいて前記ブロック別に一つ以上の支配勾配を算出する段階と、前記関心領域を構成する前記ブロック別の前記一つ以上の支配勾配を予め設定した基準に従って2進化処理したNビット値の特徴点の情報を前記関心領域に対応して生成する段階および前記特徴点の情報を前記基準特徴点の情報と比べて、前記特徴点の情報と一致する基準特徴点の情報が存在する場合、該基準特徴点の情報にマッチングするコンテンツ情報を前記DBから抽出し、前記識別対象イメージを前記コンテンツ情報に対応するコンテンツと判断する段階とを含むことができる。   According to the embodiment of the present invention, information of reference feature points in feature points of each region of interest of the original image corresponding to each of a plurality of online comic contents having a difference according to the embodiment is stored in matching with content information of each of the instances. An online comics identification method based on a region of interest of a server including a DB includes receiving an image to be identified, extracting a region of interest through edge detection in the image to be identified, and normalizing the region of interest in advance. Generating a normalized image normalized by the size of, and dividing the normalized image into a plurality of blocks of a predetermined size, and dividing the normalized image into a plurality of blocks based on a HOG (Histogram of Oriented Gradient). Calculating the dominant gradient of, and said block for each said block constituting said region of interest Generating information on N-bit value feature points corresponding to the region of interest by binarizing at least one dominant gradient according to a preset reference, and comparing the information on the feature points with the information on the reference feature points. If there is reference feature point information that matches the feature point information, content information matching the reference feature point information is extracted from the DB, and the identification target image is extracted from the content corresponding to the content information. Determining.

本発明は、イメージから一つの意味のある場面(または、カット)で構成された関心領域を識別し、該関心領域を抽出して正規化した後、HOGに基づく映像分析を介して前記関心領域における特徴点を抽出する方式を介して原本イメージと識別対象イメージとの相互の関心領域別に特徴点を比較できるように支援することによって、原本イメージの不要の背景を除いた場面単位に比較が成されて、識別対象イメージと関連されたオンライン漫画コンテンツを識別する過程での処理速度を大きく向上させることができるのみならず、識別対象イメージを様々な大きさで構成しても、正規化された関心領域の単位で比較し、HOGに基づく特徴点の関連の特性が変化しなくて、原本イメージと識別対象イメージの特徴点を正確にマッチングさせることができて、識別対象イメージと連関するオンライン漫画コンテンツにおける識別の精度を大きく向上させる効果がある。   According to the present invention, a region of interest composed of one meaningful scene (or cut) is identified from an image, the region of interest is extracted and normalized, and then the region of interest is analyzed through HOG-based image analysis. By comparing the feature points of the original image and the image to be identified for each region of interest through the method of extracting feature points in the original image, the comparison can be performed in scene units excluding unnecessary background of the original image. As a result, not only can the processing speed in the process of identifying the online comic content associated with the image to be identified be greatly improved, but also the image to be identified can be normalized in various sizes. Compares by the unit of interest, and the feature of the feature point based on HOG does not change, and the feature point of the original image and the feature point of the image to be identified are accurately matched. Things can have the effect of improving greatly the accuracy of identification in the online cartoon content associated with the identification object image.

また、本発明は、識別対象イメージと連関されたオンライン漫画コンテンツを識別する過程でHOGに基づく映像分析アルゴリズムを介して抽出される支配勾配を2進化処理し、特徴点を算出できるのみならず、予め設定したブロック単位で特徴点を算出することによって、一つのイメージに対応して抽出される特徴点の個数を既存の特徴点の算出方式より減らせるのみならず、場面単位に特徴点の比較が成されて画質および解像度の変化による影響を最小化して識別の精度を高める効果がある。   In addition, the present invention not only can binarize a dominant gradient extracted through a video analysis algorithm based on HOG in the process of identifying online comic content associated with an image to be identified, and calculate feature points, By calculating the feature points in a preset block unit, not only can the number of feature points extracted for one image be reduced than in the existing feature point calculation method, but also the comparison of the feature points in scene units This has the effect of minimizing the effects of changes in image quality and resolution and increasing the accuracy of identification.

本発明の実施例による関心領域に基づくオンライン漫画識別システムの構成図である。1 is a configuration diagram of an online cartoon identification system based on a region of interest according to an embodiment of the present invention; 本発明の実施例による関心領域に基づくオンライン漫画識別システムの関心領域の抽出の過程における例示である。5 is an illustration of a process of extracting a region of interest in the online cartoon identification system based on the region of interest according to an embodiment of the present invention. 本発明の実施例による関心領域に基づくオンライン漫画識別システムの関心領域の抽出の過程における例示である。5 is an illustration of a process of extracting a region of interest in the online cartoon identification system based on the region of interest according to an embodiment of the present invention. 本発明の実施例による関心領域に基づくオンライン漫画識別システムの関心領域の抽出の過程における例示である。5 is an illustration of a process of extracting a region of interest in the online cartoon identification system based on the region of interest according to an embodiment of the present invention. 本発明の実施例による関心領域に基づくオンライン漫画識別システムのHOGに基づく関心領域における特徴点の抽出の過程を図示した例示である。5 is a diagram illustrating a process of extracting a feature point in a region of interest based on a HOG in an online cartoon identification system based on a region of interest according to an embodiment of the present invention. 本発明の実施例による関心領域に基づくオンライン漫画識別システムのHOGに基づく関心領域における特徴点の抽出の過程を図示した例示である。5 is a diagram illustrating a process of extracting a feature point in a region of interest based on a HOG in an online cartoon identification system based on a region of interest according to an embodiment of the present invention. 本発明の実施例による関心領域に基づくオンライン漫画識別システムのHOGに基づく関心領域における特徴点の抽出の過程を図示した例示である。5 is a diagram illustrating a process of extracting a feature point in a region of interest based on a HOG in an online cartoon identification system based on a region of interest according to an embodiment of the present invention. 本発明の実施例による関心領域に基づくオンライン漫画識別システムの識別対象イメージと連関するコンテンツ識別における動作例示である。3 is an operation example of content identification associated with an image to be identified in an online comic identification system based on a region of interest according to an embodiment of the present invention; 本発明の実施例による関心領域に基づくオンライン漫画識別システムの識別対象イメージと連関するコンテンツ識別における動作例示である。3 is an operation example of content identification associated with an image to be identified in an online comic identification system based on a region of interest according to an embodiment of the present invention; 本発明の実施例による関心領域に基づくオンライン漫画識別システムと既存の特徴点の抽出方式とのパフォーマンスの比較における表である。5 is a table showing a comparison of performance between an online cartoon identification system based on a region of interest and an existing feature point extraction method according to an embodiment of the present invention. 本発明の実施例による関心領域に基づくオンライン漫画識別方法における順序図である。FIG. 4 is a flowchart illustrating an online comics identification method based on a region of interest according to an embodiment of the present invention.

既存の紙で構成された漫画本を非法スキャンして生成したイメージファイルの形の非法スキャンの漫画を構成する複数のイメージから連続された各イメージの特徴点を抽出した後、原本漫画を構成する各イメージから抽出された特徴点と順に比べることによって、一致可否によって非法複製可否を識別する技術の場合、非法スキャンの漫画と原本漫画の各々に構成されるイメージのページの区分が明確であるのみならず、大きさの比率もまた明確であって、スキャン漫画と原本漫画から抽出された特徴点の比較が容易であり、これを通じて簡単に非法スキャンの漫画を識別することができる。   Extract the feature points of each continuous image from a plurality of images that make up the ill-scanned manga in the form of an image file created by illegitimately scanning an existing manga book composed of paper, and then construct the original manga In the case of technology that identifies illegal copying based on the matchability by comparing feature points extracted from each image in order, only the distinction of the page of the image composed of each of the illegally scanned manga and the original comic is clear In addition, the size ratio is also clear, and it is easy to compare the feature points extracted from the scanned cartoon and the original cartoon, thereby easily identifying the illegally scanned cartoon.

しかし、紙で製作することなく、イメージの形で製作され、直接オンラインに掲載されるウェブ漫画(web toon)のようなオンライン(online)漫画コンテンツ(contents)の場合、ページの区分なく回次単位の単一イメージで構成されて、前記単一イメージの大きさもまた回次ごとに相違に構成されることができる。   However, in the case of online comic contents such as web toon, which is produced in the form of an image without being produced on paper, and is directly posted online, the recurring unit is not divided into pages. , And the size of the single image can also be configured differently for each round.

これに加えて、前記オンライン漫画コンテンツを非法複製する無権利者は、前記各回次の単一イメージ(原本イメージ)をキャプチャー(capture)した後、様々な大きさで分割し、複数のイメージファイルで生成するか、前記複数のイメージファイルを単一ファイルと括って非法複製コンテンツを生成して無断配布する形をとる。   In addition, the unauthorized person who illegally copies the online comic content captures the single image (original image) of each time, then divides the image into various sizes, and generates a plurality of image files. Alternatively, the plurality of image files may be combined into a single file to generate illegally duplicated content and distributed without permission.

これによって、オンライン漫画コンテンツを構成する原本イメージと非法複製コンテンツを構成する複製イメージと相互に大きさの比率が一致しないのみならず、ページ単位で構成されて、識別が容易であるスキャン漫画と違って、該複製イメージは、原本イメージを複数のイメージで分割した形で構成されるか、相違の回次に属するイメージの一部を結合した形で構成され、複製イメージがどの回次に属しているかも識別が不可能であるため、原本イメージと複製イメージとの間の特徴点の抽出を介する一対一マッチングが不可能であり、既存の非法スキャンの漫画の識別に用いられる検出方式を、オンライン漫画コンテンツを非法複製したコンテンツを検出するために適用するのに難しいところがある。   As a result, the size ratio of the original image constituting the online comic content and the duplicate image constituting the illegally duplicated content do not match each other, and is different from the scanned comic which is composed in units of pages and is easily identified. The duplicate image may be configured by dividing the original image into a plurality of images, or may be configured by combining a part of the images belonging to different repetitions. Since it is impossible to discriminate between the original image and the duplicate image, one-to-one matching through the extraction of feature points is not possible. There are difficulties in applying comics to detect illegally copied content.

また、最近は、原本イメージの一部の場面(または、カット(cut))をキャプチャーのような方式で切り取って、チャットウィンドウの顔文字の用途や書き込みの削除防止のような様々な用途で使っていて、こういった用途で使われた場面イメージ(または、カットイメージ)が含まれたコンテンツを検索しようとする要求があるが、こういった場面イメージも様々な大きさで製作され、原本イメージとの特徴点の比較を通じた検出が容易ではない。   Also, recently, some scenes (or cuts) of the original image are cut out by a method such as capture and used for various purposes such as the use of emoticons in a chat window and prevention of deletion of writing. There is a demand to search for content that contains scene images (or cut images) used for such purposes, but these scene images are also produced in various sizes and original images It is not easy to detect through comparison of the feature points.

既に同出願人が出願した特許出願番号第10−2016−0152738号によると、オンライン漫画コンテンツを構成する原本イメージの全体領域においてイメージの周波数特性に基づいて特徴点を抽出し、これに基づいて非法複製コンテンツとオンライン漫画コンテンツの各々から抽出された特徴点を相互比較することによって、非法複製コンテンツとオンライン漫画コンテンツ全て、ピクセルの変化による周波数特性が同一であって、前記特徴点の位置および分布が変化しなく、非法複製コンテンツの特徴点とオンライン漫画コンテンツの特徴点を正確にマッチングさせて、非法複製コンテンツの識別の精度を高める構成を提案したが、本発明は、こういった既存の登録特許の非法コンテンツにおける識別処理時間をさらに短縮しながらも、既存よりさらに正確な識別パフォーマンスを保証するとともに、オンライン漫画コンテンツを構成する原本イメージから一部の場面を切り取った場面イメージも容易に識別して、イメージに基づいてコンテンツを検索するユーザーの検索の便利性を保証する方案を提示する。   According to Patent Application No. 10-2016-0152738, which has already been filed by the applicant, feature points are extracted based on the frequency characteristics of the image in the entire area of the original image that constitutes the online comic content, and based on the extracted feature points, By comparing feature points extracted from each of the copied content and the online comic content, all of the illegally copied content and the online comic content have the same frequency characteristics due to pixel changes, and the position and distribution of the feature points are different. No change was made, and the feature points of the illegally copied content and the feature points of the online comic content were accurately matched to improve the identification accuracy of the illegally copied content. While further reducing the identification processing time for illegal content In addition to guaranteeing more accurate identification performance than the existing ones, it is also easy to identify scene images obtained by cutting out some scenes from the original images that constitute online comic content, and to search for users who search for content based on the images Suggest a way to guarantee the convenience of

説明の前に、本発明で説明する用語である'場面'は、単一カット(cut)、単一コマ、単一パネル(panel)、または、単一フレーム(frame)と定義されることができて、本発明で説明する関心領域は、前記単一カット、単一コマ、単一パネル、または、単一フレームを構成する漫画イメージ、または、イメージ領域を意味することができる。また、前記原本イメージは、一つ以上のカット、コマ、パネル、または、フレームで構成されることができることをことわっておきたい。   Prior to the description, the term “scene” as used in the present invention may be defined as a single cut, a single frame, a single panel, or a single frame. Preferably, the region of interest described in the present invention may mean a cartoon image or an image region forming the single cut, the single frame, the single panel, or the single frame. Also, it should be noted that the original image can be composed of one or more cuts, frames, panels, or frames.

この時、前記原本イメージに構成されたカットや、こまの配置の形によって複数のカット、複数のコマ、複数のパネル、または、複数のフレームが一つの関心領域で構成されることもある。   At this time, a plurality of cuts, a plurality of frames, a plurality of panels, or a plurality of frames may be configured as one region of interest, depending on the cut configured in the original image or the layout of the frames.

以下に図面を参照して本発明の詳細実施例を説明する。
まず、図1は、本発明の実施例による関心領域に基づくオンライン漫画識別システムの構成図であって、図示のように関心領域抽出部110と、正規化部120と、映像分析部130と、特徴点抽出部140および制御部150とを含むことができる。
Hereinafter, a detailed embodiment of the present invention will be described with reference to the drawings.
First, FIG. 1 is a block diagram of an online comics identification system based on a region of interest according to an embodiment of the present invention. As shown, a region of interest extracting unit 110, a normalizing unit 120, a video analyzing unit 130, A feature point extracting unit 140 and a control unit 150 can be included.

また、前記オンライン漫画識別システムを構成する各構成部のうち、少なくとも一つが異なる構成部に含まれて構成されることもできて、前述の構成部のほかに追加の構成部が前記オンライン漫画識別システムにさらに構成されることもできるのは無論である。   In addition, at least one of the components constituting the online comic identification system may be included in a different component, and in addition to the above-described components, an additional component may be included in the online comic identification system. Of course, the system can be further configured.

また、前記オンライン漫画識別システムを構成する各構成部は、サーバーに構成されるか、相互通信できる相違の複数の装置の各々に前記オンライン漫画識別システムの構成部のうち、少なくとも一部が構成されて、相互通信することもできる。   Also, each component constituting the online comic identification system is constituted by a server or at least a part of the component of the online comic identification system is constituted by each of a plurality of different devices capable of communicating with each other. And can communicate with each other.

一例として、前記関心領域抽出部110、正規化部120、映像分析部130および特徴点抽出部140がサーバーに構成され、制御部150が前記サーバーと通信する端末(一例として、ユーザー端末)に構成されることができる。   As an example, the region of interest extraction unit 110, the normalization unit 120, the video analysis unit 130, and the feature point extraction unit 140 are configured in a server, and the control unit 150 is configured in a terminal (for example, a user terminal) communicating with the server. Can be done.

また、前記オンライン漫画識別システムは、サーバー、または、ユーザー端末で実行されるアプリケーション(application)の関連データで構成されることもできる。   In addition, the online comic identification system may be configured with data related to an application executed on a server or a user terminal.

以下、サーバーに構成されたオンライン漫画識別システムを例示として、以下の図面を介して、各構成部の詳細動作構成を図1の構成を参考にして、以下の図面を介して詳しく説明する。   Hereinafter, an example of an online comics identification system configured in a server will be described in detail with reference to the configuration of FIG. 1 with reference to the configuration of FIG.

まず、図2および図3に図示のように関心領域抽出部110は、回次別にオンライン漫画コンテンツを構成する一つ以上の原本イメージを抽出することができる。   First, as shown in FIGS. 2 and 3, the region of interest extraction unit 110 can extract one or more original images constituting online comic contents for each time.

この時、前記サーバーは、オンライン漫画(または、オンライン漫画コンテンツ)の関連コンテンツ情報とマッチングして、回次別の一つ以上の原本イメージおよび前記コンテンツ情報が保存されたコンテンツDB101を含むことができて、この時、特定オンライン漫画コンテンツの特定の回次に対応して、一つ以上の原本イメージが前記コンテンツDB101に保存されることもできる。   At this time, the server may include one or more original images for each of the online comics and / or the content DB 101 in which the content information is stored by matching with the related content information of the online comic (or the online comic content). At this time, one or more original images may be stored in the content DB 101 corresponding to a specific time of the specific online comic content.

また、前記制御部150は、前記コンテンツDB101から特定コンテンツ情報とマッチングする原本イメージを抽出して、前記関心領域抽出部110に提供することができて、前記制御部150は、前記原本イメージに対応して特徴点の情報を受信する時、前記原本イメージとともに抽出された特定コンテンツ情報とマッチングして前記サーバーに含まれた特徴点DB102に保存することができる。   In addition, the control unit 150 may extract an original image matching the specific content information from the content DB 101 and provide the extracted original image to the region of interest extracting unit 110, and the control unit 150 may correspond to the original image. When the feature point information is received, it may be matched with the specific content information extracted together with the original image and stored in the feature point DB 102 included in the server.

また、前記コンテンツ情報は、オンライン漫画コンテンツに対応するコンテンツ識別情報と、該オンライン漫画コンテンツを構成する複数の回次のうち、いずれか一つにおける回次情報などを含むことができて、該回次情報には、相違の複数の回次のうち、いずれか一つに対応する(または、マッチングする)一つ以上の原本イメージ別のイメージ識別情報が含まれることができる。   Further, the content information may include content identification information corresponding to the online comic content, and repetition information in any one of a plurality of repetitions constituting the online comic content. The next information may include image identification information for one or more original images corresponding to (or matching with) any one of the plurality of times of difference.

一例として、特定オンライン漫画コンテンツに対応して、複数の相違の回次の各々に対応するコンテンツ情報が前記コンテンツDB101に予め保存されることができて、前記特定オンライン漫画コンテンツに対応する複数の相違の回次別のコンテンツ情報は、相互に同一のコンテンツ識別情報を含みながら、相互に相違の回次情報を含むことができる。   For example, corresponding to the specific online comic content, content information corresponding to each of a plurality of different times can be stored in the content DB 101 in advance, and a plurality of differences corresponding to the specific online comic content can be stored. The content information for each of the times can include the same content identification information and the different pieces of time information.

また、相違の回次の原本イメージの相互間には、生成日付、または、掲載日付が異なるように構成されることができて、これにおける情報が前記回次情報に含まれることができる。   In addition, the generation dates or the publication dates may be configured to be different between the original images of the different times, and the information on this may be included in the time information.

また、前記コンテンツDB101には、相違の複数のオンライン漫画別に(または、相違の複数のオンライン漫画コンテンツ別に)回次別のコンテンツ情報および一つ以上の原本イメージが相互マッチングして保存されることができる。   In addition, the content DB 101 may store content information for each of a plurality of different online comics (or for each of a plurality of different online comic contents) and one or more original images in a mutually matching manner. it can.

一方、前記関心領域抽出部110は、図4に図示のように原本イメージを受信する時、前記原本イメージを横方向および縦方向にスキャン(scan)してエッジ(edge)を検出することができて、前記エッジ検出によって前記原本イメージから一つの意味のある場面(または、カット(cut)、または、フレーム(frame))における関心領域(ROI:Region Of Interest)を選択(または、設定)することができる。   On the other hand, when receiving the original image as shown in FIG. 4, the region of interest extracting unit 110 may scan the original image horizontally and vertically to detect an edge. Selecting (or setting) a region of interest (ROI) in one significant scene (or cut or frame) from the original image by the edge detection. Can be.

この時、前記関心領域抽出部110は、図示のように前記関心領域の上端、または、下端が原本イメージの上端、または、下端に接する場合、前記関心領域を除くか、スキャン中の第一原本イメージの識別情報を基礎として、次、または、以前の順序の第二原本イメージを前記コンテンツDB101から抽出した後、前記第一原本イメージに続いて連続スキャンして、前記第一原本イメージの上端、または、下端と相接する第一関心領域と前記第二原本イメージの上端、または、下端と相接して前記第一関心領域に続く第二関心領域を相互連結して、一つの関心領域で選択(または、設定)して抽出することができる。   At this time, if the upper or lower end of the region of interest contacts the upper or lower end of the original image as shown in the figure, the region of interest extracting unit 110 removes the region of interest or removes the first original being scanned. Based on the identification information of the image, after extracting the next or previous second original image from the content DB 101, successively scan following the first original image, the upper end of the first original image, Alternatively, the first region of interest in contact with the lower end and the upper end of the second original image, or the second region of interest in contact with the lower end and following the first region of interest is interconnected to form one region of interest. It can be selected (or set) and extracted.

また、前記関心領域抽出部110は、図3に図示のように同一の回次のオンライン漫画コンテンツを構成する原本イメージが複数である場合、前記原本イメージの識別情報によって順に連結して、複数の原本イメージを一つの単一イメージで生成することができる。   Also, as shown in FIG. 3, when there are a plurality of original images constituting the same online comic content, as shown in FIG. The original image can be generated in one single image.

この時、前記原本イメージの識別情報は、該原本イメージのファイル名であることがある。   At this time, the identification information of the original image may be a file name of the original image.

また、前記関心領域抽出部110は、図4に図示のように前記単一イメージを横方向および縦方向にスキャンしてエッジを検出することができて、前記エッジ検出を介してエッジで閉鎖される単一領域を関心領域と選択することができる。   In addition, as shown in FIG. 4, the region of interest extracting unit 110 may scan the single image in a horizontal direction and a vertical direction to detect an edge, and may close the edge through the edge detection. A single region can be selected as the region of interest.

この時、前記関心領域は、前記原本イメージに含まれた単一場面(または、単一カット、または、単一フレーム)か、台詞、地の文、擬声語などのような漫画の構成要素を含むことができる。   At this time, the ROI may include a single scene (or a single cut or a single frame) included in the original image, or a cartoon component such as dialogue, ground sentence, onomatopoeia, and the like. be able to.

また、前記関心領域抽出部110は、前記原本イメージから関心領域を検出するごとに、前記原本イメージから関心領域に対応するイメージを抽出し、該関心領域の関連イメージを正規化部120に提供(または、伝送)することができる。   Also, every time a region of interest is detected from the original image, the region of interest extracting unit 110 extracts an image corresponding to the region of interest from the original image and provides a related image of the region of interest to the normalization unit 120 ( Or transmission).

一方、前記オンライン漫画識別システムは、前記関心領域におけるHOG(Histogram of Oriented Gradient)に基づく映像分析を介して特徴点を抽出し、前記特徴点をオンライン漫画コンテンツの識別手段として用いることができるが、該特徴点の抽出の過程を以下の図面を介して詳しく説明する。   On the other hand, the online comic identification system can extract feature points through video analysis based on Histogram of Oriented Gradient (HOG) in the region of interest, and can use the characteristic points as means for identifying online comic content. The process of extracting the feature points will be described in detail with reference to the following drawings.

まず、図5に図示のように、前記正規化部120は、前記関心領域抽出部110から提供される関心領域の関連イメージを受信し、前記関心領域の関連イメージを予め設定した正規化の大きさで正規化した正規化イメージを生成することができる。   First, as shown in FIG. 5, the normalizing unit 120 receives the related image of the region of interest provided from the region of interest extracting unit 110, and converts the related image of the region of interest into a predetermined normalization magnitude. Thus, a normalized image can be generated.

一例として、正規化部120は、予め設定した正規化の大きさ、または、正規化比率によって前記原本イメージを正規化することができて、一例として前記正規化部120は、前記原本イメージの横を予め設定したピクセル数で調節し、前記横の調節比率に合わせて前記原本イメージの縦ピクセル数を自動調節することができる。   For example, the normalization unit 120 may normalize the original image according to a preset normalization size or a normalization ratio. Is adjusted by a preset number of pixels, and the number of vertical pixels of the original image can be automatically adjusted according to the horizontal adjustment ratio.

また、前記正規化部120は、前記映像分析部130に前記正規化イメージを提供(または、伝送)し、前記映像分析部130は、前記正規化イメージを予め設定した大きさ(または、第一大きさ)の複数の設定領域に区分(分割)することができる。   In addition, the normalization unit 120 provides (or transmits) the normalized image to the image analysis unit 130, and the image analysis unit 130 converts the normalized image into a predetermined size (or a first size). (Size) can be divided (divided) into a plurality of setting areas.

また、前記映像分析部130は、単位設定領域Aごとに複数の相違の予め設定した大きさ(または、第二大きさ)のブロック(block)に区分(分割)し、ブロック別にHOG(Histogram of Oriented Gradient)に基づく映像分析を介して一つ以上の支配勾配(dominant gradient)を算出することができる。   In addition, the image analysis unit 130 divides (divides) a plurality of blocks of a predetermined size (or a second size) of a plurality of differences for each unit setting area A, and HOG (Histogram of HOG) for each block. One or more dominant gradients can be calculated through image analysis based on the Oriented Gradient.

一例として、図6に図示のように、前記映像分析部130は、単位ブロックを予め設定した大きさ(または、第三大きさ)の複数のセル(cell)に区分(分割)し、HOGに基づいて単位セル別に勾配を算出することができる。   For example, as shown in FIG. 6, the image analysis unit 130 divides (divides) the unit block into a plurality of cells having a predetermined size (or a third size), and generates a HOG. The gradient can be calculated for each unit cell on the basis of the gradient.

この時、前記単位ブロックは、前記複数のブロックのうち、いずれか一つを意味することができる。   At this time, the unit block may mean any one of the plurality of blocks.

また、前記映像分析部130は、特定の単位ブロックに属するセル別に算出した勾配を聚合して、前記特定の単位ブロックにおける方向別の勾配の大きさを算出することができる。即ち、前記映像分析部130は、特定の単位ブロックに属するセル別に算出された複数の勾配を聚合して、勾配方向別(または、勾配別)の大きさを算出することができる。   In addition, the image analysis unit 130 may combine gradients calculated for cells belonging to a specific unit block to calculate a magnitude of a gradient in the specific unit block in each direction. That is, the image analysis unit 130 may combine a plurality of gradients calculated for each cell belonging to a specific unit block and calculate a magnitude for each gradient direction (or for each gradient).

一例として、前記映像分析部130は、HOGアルゴリズムによる前記特定の単位ブロックに属するセル別の勾配によって予め設定した角度の間隔で区分され、予め設定される相違の勾配方向(gradient orientation)別に勾配の大きさ(gradient magnitude)を演算したヒストグラム(histogram)を算出することができて、前記ヒストグラムで予め設定した基準大きさ以上の大きさを有する一つ以上の支配勾配を前記特定の単位ブロックに対応して算出(または、抽出)することができる。   For example, the image analysis unit 130 may be divided at a predetermined angle interval according to a gradient of each cell belonging to the specific unit block according to the HOG algorithm, and the gradient may be determined according to a preset different gradient orientation. A histogram obtained by calculating a magnitude may be calculated, and one or more dominant gradients having a size equal to or greater than a predetermined reference size corresponding to the specific unit block may be calculated in the histogram. And can be calculated (or extracted).

この時、前記映像分析部130は、40度の角度の間隔に相違の勾配方向が設定される場合、9個の相違の勾配方向によるヒストグラムを算出することができる。   At this time, if different gradient directions are set at intervals of 40 degrees, the image analyzer 130 may calculate histograms based on nine different gradient directions.

また、図7に図示のように、前記特徴点抽出部140は、前記映像分析部130と連動して、前記特定の単位ブロックに対応して算出された前記一つ以上の支配勾配の各々の方向によって予め設定した複数の相違の角度範囲(または、角度)別に支配勾配の存在可否を判断することができて、前記複数の相違の角度範囲別(または、角度別)に前記支配勾配の存在可否によって2進化処理することができる。   Also, as shown in FIG. 7, the feature point extraction unit 140 operates in conjunction with the video analysis unit 130 to calculate each of the one or more dominant gradients calculated corresponding to the specific unit block. The existence or nonexistence of the dominant gradient can be determined for each of a plurality of different angular ranges (or angles) set in advance according to the direction, and the existence of the dominant gradient can be determined for each of the plurality of different angular ranges (or each angle). Binary processing can be performed depending on the availability.

一例として、特徴点抽出部140には、40度の角度を基準として(または、間隔として)、複数の相違の角度範囲が予め設定され、該複数の角度範囲別のビット値が単位ブロックの特徴点の関連データを構成するように予め設定されることができる。これによって、前記特徴点抽出部140は、40度の角度を基準として角度範囲を区分した場合、一つのブロックにおいて特徴点の関連データで9bitを割り当てることができる。   As an example, in the feature point extracting unit 140, a plurality of different angle ranges are set in advance based on an angle of 40 degrees (or as an interval), and a bit value for each of the plurality of angle ranges is set as a feature of the unit block. It can be preset to constitute the relevant data of the point. Accordingly, when the angle range is divided based on the angle of 40 degrees, the feature point extracting unit 140 can allocate 9 bits of the feature point related data in one block.

また、前記特徴点抽出部140は、角度範囲別に支配勾配の存在可否によって支配勾配が存在する角度範囲には1に設定し、支配勾配が存在しない角度範囲は0に設定し、一つの単位ブロックにおいて9bitの大きさのデータを算出することができて、前記データを前記特定の単位ブロックの特徴点として抽出(または、算出)することができる。   In addition, the feature point extracting unit 140 sets 1 to an angle range where a dominant gradient exists depending on whether or not a dominant gradient exists for each angle range, and sets 0 to an angular range where a dominant gradient does not exist. In the above, data having a size of 9 bits can be calculated, and the data can be extracted (or calculated) as feature points of the specific unit block.

即ち、図示のように、前記特徴点抽出部140は、ブロック3において予め設定した0°を超過して40°以下の角度範囲に支配勾配が存在するため、1と設定して、40°を超過して80°以下の予め設定した角度範囲に支配勾配が存在しないため、0と設定することができる。   That is, as shown in the figure, the feature point extraction unit 140 sets 1 to 40 because the dominant gradient exists in the angle range exceeding 0 ° preset in block 3 and 40 ° or less. Since there is no dominant gradient in a preset angle range exceeding 80 ° or less, it can be set to 0.

これによって、前記特徴点抽出部140は、360度を40度の間隔に分割した9個の相違の角度範囲別に支配勾配の存在可否によって2進演算を遂行して単位ブロックにおいて9bitの特徴点(または、特徴点の情報)を算出することができる。   Accordingly, the feature point extracting unit 140 performs a binary operation according to the presence or absence of a dominant gradient for each of the nine different angle ranges obtained by dividing 360 degrees into intervals of 40 degrees, and performs a 9-bit feature point (in a unit block). Or, information on feature points) can be calculated.

この時、前記特徴点抽出部140に予め設定される前記角度範囲を決定する(分ける)ための基準角度を40度と例えて説明したが、こういった基準角度は、様々な角度で変更設定できることは無論であり、一例として基準角度を下げるほど、イメージの特徴における表現のできる勾配の方向個数およびビット数が増加して、特徴点の解像度を上げることができて、これを通じてさらに精密な特徴点の情報を獲得することもできる。   At this time, the reference angle for determining (dividing) the angle range preset in the feature point extraction unit 140 has been described as 40 degrees, but such a reference angle can be changed and set at various angles. Obviously, the lower the reference angle, the more the number of gradient directions and the number of bits that can be expressed in the image features are increased, and the resolution of the feature points can be increased. You can also get point information.

前述の構成によって、前記特徴点抽出部140は、単位設定領域Aを構成する複数の相違のブロック別に9bitの特徴点の情報を算出(生成)することができて、4個のブロックで構成される単位設定領域Aにおいて36bitの特徴点の情報を算出(生成)することができる。   With the above-described configuration, the feature point extraction unit 140 can calculate (generate) 9-bit feature point information for each of a plurality of different blocks constituting the unit setting area A, and is configured with four blocks. 36-bit feature point information can be calculated (generated) in the unit setting area A.

また、前記特徴点抽出部140は、一つの関心領域を構成する複数の相違の設定領域別に36bitの特徴点の情報を算出することができて、これを通じて一つの関心領域が9個の設定領域で構成された場合、前記関心領域において324bitの特徴点の情報を生成して前記関心領域における特徴点を抽出することができる。   In addition, the feature point extracting unit 140 can calculate 36-bit feature point information for each of a plurality of different setting regions constituting one region of interest, whereby one region of interest has nine setting regions. In this case, 324-bit feature point information in the region of interest can be generated to extract the feature point in the region of interest.

この時、前記特徴点抽出部140は、関心領域を様々な個数の設定領域およびブロックに区分できることは無論であって、これを通じてブロック別の一つ以上の支配勾配を2進化処理して(または、2進データと変換して)、Nビット値の特徴点の情報を関心領域に対応して生成することができる。   At this time, it is needless to say that the feature point extracting unit 140 can divide the region of interest into various numbers of set regions and blocks, and through this, binarizes one or more dominant gradients for each block (or , Converted to binary data), N-bit feature point information can be generated corresponding to the region of interest.

前述の構成を介して、前記特徴点抽出部140は、関心領域において既存の特徴点の抽出方式より少ない容量の特徴点の情報を生成することができて、これを通じて、以下に説明される特徴点の情報を用いるコンテンツ識別処理と定義処理の負荷を下げるとともに、処理速度を向上させることができる。   Through the above-described configuration, the feature point extraction unit 140 can generate information of feature points having a smaller capacity than the existing feature point extraction method in the region of interest, and through this, the features described below can be used. The load of the content identification processing and definition processing using the point information can be reduced, and the processing speed can be improved.

一方、図8に図示のように、前記特徴点抽出部140は、関心領域を構成する複数の相違のブロック別に特徴点を抽出し、前記ブロック別に生成された特徴点の情報を聚合して前記関心領域の特徴点における特徴点の情報を生成した後、前記制御部150に提供(伝送)することができる。   On the other hand, as shown in FIG. 8, the feature point extracting unit 140 extracts feature points for each of a plurality of different blocks constituting the region of interest, and combines the information of the feature points generated for each of the blocks to combine the feature points. After generating the information of the feature points in the feature points of the region of interest, the information can be provided (transmitted) to the control unit 150.

また、前記制御部150は、特定の回次のオンライン漫画コンテンツに対応する一つ以上の原本イメージを前記コンテンツDB101から抽出した後、前記関心領域抽出部110に提供することができて、前記関心領域抽出部110、正規化部120、映像分析部130および特徴点抽出部140を通じて前記特定の回次のオンライン漫画コンテンツに対応する特定の原本イメージに対応して生成された特徴点の情報と前記特定の原本イメージとともに前記コンテンツDB101から抽出した前記特定の回次のオンライン漫画コンテンツに対応するコンテンツ情報を相互マッチングして特徴点DB102に保存することができる。   Further, the control unit 150 may extract one or more original images corresponding to a specific online comic content from the content DB 101 and provide the extracted original image to the region of interest extracting unit 110. The information of the feature points generated corresponding to the specific original image corresponding to the specific online comic content through the region extracting unit 110, the normalizing unit 120, the video analyzing unit 130, and the feature point extracting unit 140, and Content information corresponding to the specific online comic content extracted from the content DB 101 together with a specific original image can be mutually matched and stored in the feature point DB 102.

この時、前記制御部150は、前記原本イメージに対応して生成された(または、抽出された)特徴点の情報を識別した後、該原本イメージに対応する特徴点の情報を基準特徴点の情報として設定し、前記特徴点DB102に保存することができて、特定の回次に対応する一つ以上の原本イメージから選択された関心領域別に生成された前記基準特徴点の情報を前記コンテンツ情報とマッチングして前記特徴点DB102に保存することができる。   At this time, the control unit 150 identifies the information of the feature points generated (or extracted) corresponding to the original image, and then uses the information of the feature points corresponding to the original image as the reference feature points. The information on the reference feature points generated for each region of interest selected from one or more original images corresponding to a specific round can be set as the content information. And stored in the feature point DB 102.

前述の構成から、前記コンテンツDB101と前記特徴点DB102とは、単一DBで構成されることもあるのは無論である。   From the above configuration, it goes without saying that the content DB 101 and the feature point DB 102 may be configured as a single DB.

また、前記制御部150は、MCU(Micro Controller Unit)および各種のエンジンを含めて構成されることができて、一例として、RAM、ROM、CPU、GPU、バスを含み、RAM、ROM、CPU、GPUなどは、バスを通じて互いに連結されることができる。CPUは、メモリーにアクセスして、メモリーに保存されたO/S(Operating System)を用いてブートを遂行することができて、メモリーに保存された各種プログラム、コンテンツ、データなどを用いて様々な動作を遂行することができる。   Further, the control unit 150 can be configured to include an MCU (Micro Controller Unit) and various engines. As an example, the control unit 150 includes a RAM, a ROM, a CPU, a GPU, a bus, and a RAM, a ROM, a CPU, GPUs and the like can be connected to each other through a bus. The CPU can access the memory and perform a boot using an O / S (Operating System) stored in the memory, and perform various operations using various programs, contents, data, and the like stored in the memory. Actions can be performed.

また、前記制御部150は、外部から識別対象イメージを受信することができる。
一例として、前記制御部150がサーバーに構成された場合、前記制御部150は、外部装置との通信網を介する通信を支援する前記サーバーに構成される通信部を通じて外部装置から識別対象イメージを受信するか、前記サーバーに識別対象イメージが保存される別途の追加DBが含まれて、前記追加DBから前記サーバーに構成された入力部を介した外部入力を基礎として、識別対象イメージを抽出して受信することができる。
In addition, the control unit 150 may receive an image to be identified from outside.
For example, when the control unit 150 is configured as a server, the control unit 150 receives an image to be identified from an external device through a communication unit configured in the server that supports communication via a communication network with the external device. Alternatively, the server may include a separate additional DB in which the identification target image is stored, and extract the identification target image from the additional DB based on an external input through an input unit configured in the server. Can be received.

また、前記制御部150は、該識別対象イメージにおいて前記関心領域抽出部110と、正規化部120と、映像分析部130および特徴点抽出部140とを制御し、特徴点の情報を生成した後、前記特徴点DB102に保存された基準特徴点の情報と比べることができる。   Also, the control unit 150 controls the region of interest extraction unit 110, the normalization unit 120, the video analysis unit 130, and the feature point extraction unit 140 in the identification target image, and generates feature point information. , Can be compared with the reference feature point information stored in the feature point DB 102.

一例として、前記制御部150は、前述の構成で前記原本イメージを代替して(または、代理して)、前記識別対象イメージを前記関心領域抽出部110に提供することができて、前記関心領域抽出部110と、正規化部120と、映像分析部130および特徴点抽出部140は、前記原本イメージから関心領域における特徴点の情報を生成する方式と同一に前記識別対象イメージから関心領域を選択し、識別対象イメージに対応する関心領域別の特徴点の情報を生成することができる。   For example, the control unit 150 may provide the identification target image to the region of interest extraction unit 110 instead of (or instead of) the original image in the above-described configuration, and The extraction unit 110, the normalization unit 120, the video analysis unit 130, and the feature point extraction unit 140 select a region of interest from the identification target image in the same manner as generating information of feature points in the region of interest from the original image. Then, it is possible to generate feature point information for each region of interest corresponding to the image to be identified.

また、前記制御部150は、前記識別対象イメージに対応して前記関心領域抽出部110と、正規化部120と、映像分析部130および特徴点抽出部140とを通じて得られた特徴点の情報を前記特徴点DB102に保存された複数の相違の基準特徴点の情報と比べることができる。   Also, the control unit 150 may extract feature point information obtained through the region of interest extraction unit 110, the normalization unit 120, the video analysis unit 130, and the feature point extraction unit 140 corresponding to the identification target image. The information can be compared with information of a plurality of different reference feature points stored in the feature point DB 102.

これによって、前記制御部150は、前記識別対象イメージに対応して得られた特徴点の情報と一致する基準特徴点の情報が特徴点DB102に存在する場合、前記識別対象イメージに属する関心領域の特徴点の情報と一致する基準特徴点の情報にマッチングするコンテンツ情報を前記特徴点DB102から抽出して、前記識別対象イメージと連関するコンテンツ情報として提供することができる。   Accordingly, when the information of the reference feature point that matches the information of the feature point obtained corresponding to the image to be identified exists in the feature point DB 102, the control unit 150 determines the region of interest belonging to the image to be identified. Content information that matches information of a reference feature point that matches information of a feature point can be extracted from the feature point DB 102 and provided as content information associated with the identification target image.

即ち、前記制御部150は、前記識別対象イメージの特徴点の情報と一致する基準特徴点の情報にマッチングする特定オンライン漫画コンテンツの特定の回次におけるコンテンツ情報が抽出された場合、前記識別対象イメージが前記特定オンライン漫画コンテンツの特定の回次に対応するコンテンツ情報に含まれた一つ以上の原本イメージのうち、少なくとも一つの一部、または、全部を複製するか、クリッピング(clipping)して生成されたことと判断することができて、前記識別対象イメージに対応して抽出された前記特定オンライン漫画コンテンツの特定の回次に対応するコンテンツ情報を前記識別対象イメージと連関する原本コンテンツとして提供することができる。   That is, the control unit 150 may extract the identification target image when the content information in a specific turn of the specific online comic content matching the information of the reference feature point matching the information of the feature point of the identification target image is extracted. Is generated by duplicating or clipping at least a part or all of at least one of one or more original images included in content information corresponding to a specific turn of the specific online comic content. And providing content information corresponding to a specific time of the specific online comic content extracted corresponding to the identification target image as original content associated with the identification target image. be able to.

この時、前記制御部150は、前記識別対象イメージの特徴点の情報と基準特徴点の情報を相互に比べる時、データが予め設定した基準値以上に一致する場合、前記識別対象イメージの特徴点の情報と基準特徴点の情報が相互一致することと判断することができる。   At this time, when comparing the information on the feature points of the image to be identified with the information on the reference feature points, if the data matches the reference value or more, a feature point of the image to be identified may be used. It can be determined that the information of the reference point and the information of the reference feature point match each other.

また、前記制御部150が前記サーバーに構成された場合、前記制御部150は、該サーバーと連結された別途のディスプレイ手段を介して前記識別対象イメージに対応して抽出されたコンテンツ情報を表示することができて、前記ユーザー端末に構成された場合、前記ユーザー端末に構成される表示部を通じて前記コンテンツ情報を表示することができる。   Further, when the control unit 150 is configured in the server, the control unit 150 displays the extracted content information corresponding to the identification target image through a separate display unit connected to the server. When configured in the user terminal, the content information can be displayed through a display unit configured in the user terminal.

また、前記サーバーに前記関心領域抽出部110と、正規化部120と、映像分析部130と特徴点抽出部140および前記制御部150の一部の機能を遂行するサーバー制御部が構成され、前記サーバーと通信網を介して通信するユーザー端末に前記制御部150の他の一部の機能を遂行する端末制御部が構成されることもできる。   In addition, the server includes a server control unit that performs some functions of the region of interest extraction unit 110, the normalization unit 120, the video analysis unit 130, the feature point extraction unit 140, and the control unit 150, A terminal control unit that performs some other functions of the control unit 150 may be configured in a user terminal that communicates with a server via a communication network.

これによって、前記ユーザー端末に構成された端末制御部は、前記ユーザー端末のメモリー部に保存された複数の相違のイメージのうち、前記ユーザー端末に構成されたユーザー入力部を介したユーザー入力によって選択された識別対象イメージを前記ユーザー端末に構成された通信部を通じて前記サーバーに伝送することができる。   Accordingly, the terminal control unit configured in the user terminal selects one of the plurality of different images stored in the memory unit of the user terminal by a user input via the user input unit configured in the user terminal. The identified image to be identified can be transmitted to the server through a communication unit included in the user terminal.

これによって、前記サーバーに構成された前記サーバー制御部が前記関心領域抽出部110と、正規化部120と、映像分析部130および特徴点抽出部140とを含む複数の相違の構成部を制御して、前記ユーザー端末から前記識別対象イメージを受信する時、前記関心領域抽出部110と、正規化部120と、映像分析部130および特徴点抽出部140とを制御し、前記ユーザー端末から受信された識別対象イメージに対応して特徴点の情報を生成した後、前記特徴点DB102に予め保存した基準特徴点の情報と比べて、前記識別対象イメージにおける特徴点の情報に対応する基準特徴点の情報にマッチングするコンテンツ情報を前記特徴点DB102から抽出して、前記ユーザー端末に伝送することができる。   Accordingly, the server controller configured in the server controls a plurality of different components including the region of interest extraction unit 110, the normalization unit 120, the video analysis unit 130, and the feature point extraction unit 140. When receiving the identification target image from the user terminal, the control unit controls the region of interest extraction unit 110, the normalization unit 120, the video analysis unit 130, and the feature point extraction unit 140, and receives the image from the user terminal. After generating the information of the feature points corresponding to the identified image to be identified, the information of the reference feature points corresponding to the information of the feature points in the identified image is compared with the information of the reference point stored in the feature point DB 102 in advance. Content information matching information can be extracted from the feature point DB 102 and transmitted to the user terminal.

また、前記ユーザー端末の端末制御部は、前記ユーザー端末に構成された通信部を通じて前記コンテンツ情報を受信する時、該コンテンツ情報を前記識別対象イメージに対応するコンテンツ情報として前記表示部を通じて表示することができる。   The terminal control unit of the user terminal, when receiving the content information through a communication unit included in the user terminal, displays the content information as content information corresponding to the identification target image through the display unit. Can be.

また、前述の構成で前記制御部150は、前記識別対象イメージに対応して抽出されたコンテンツ情報を基礎として前記識別対象イメージを前記コンテンツ情報によるコンテンツを非法複製した非法複製コンテンツと判断して、これによる結果情報を提供することもできる。   Further, in the above-described configuration, the control unit 150 determines that the identification target image is the illegally copied content obtained by illegally copying the content based on the content information based on the content information extracted corresponding to the identification target image, This can also provide result information.

前述のように、本発明は、既存のようにオンライン漫画コンテンツを構成する原本イメージの全体領域において特徴点を抽出して比較する方式から発生する原本イメージと識別対象イメージの大きさの比率の不一致、または、一部の場面のキャプチャーによる識別対象イメージと原本イメージの特徴点の比較が容易ではない問題を改善するためにイメージから一つの意味のある場面(または、カット)で構成された関心領域を識別し、該関心領域を正規化した後、HOGに基づく映像分析を介して特徴点を抽出する方式を介して原本イメージと識別対象イメージとの相互の関心領域別に特徴点を比較できるように支援することによって、原本イメージの不要の背景を除いた場面単位に比較が成されて識別対象イメージと関連されたオンライン漫画コンテンツを識別する過程での処理速度を大きく向上させることができるのみならず、識別対象イメージを様々な大きさで構成しても、正規化された関心領域の単位で比較し、HOGに基づく特徴点の関連の特性が変化しなく、原本イメージと識別対象イメージの特徴点を正確にマッチングさせることができて、識別の精度を大きく向上させることができる。   As described above, according to the present invention, the size ratio of the original image and the image to be identified does not match due to the method of extracting and comparing the feature points in the entire area of the original image constituting the online comic content. Or a region of interest composed of one meaningful scene (or cut) from the image to improve the difficulty in comparing the feature points of the image to be identified and the original image by capturing some scenes After the region of interest is normalized and the feature point is extracted through HOG-based image analysis, the feature point can be compared between the original image and the image to be identified for each region of interest. With this support, the comparison is made on a scene-by-scene basis without unnecessary background of the original image, and the online Not only can the processing speed in the process of identifying the image content be greatly improved, but even if the identification target images are configured in various sizes, the comparison is performed in units of normalized regions of interest and based on the HOG. Since the characteristics related to the feature points do not change, the feature points of the original image and the identification target image can be accurately matched, and the accuracy of identification can be greatly improved.

また、同出願人の既存の出願特許による周波数特性に基づいて特徴点を抽出して比較する方式も、原本イメージの全体領域を対象に特徴点を抽出するとともに周波数領域での特徴点の抽出による特徴点の個数が相当であるため、演算量が相当であるのみならず、画質および解像度の変化に弱いに比べ、本発明は、HOGに基づく映像分析アルゴリズムを介して抽出される支配勾配を2進化処理し、Nビット値の特徴点の情報と算出できるのみならず、予め設定したブロック単位で特徴点を算出することによって、特徴点の個数を既存より減らせるのみならず、場面単位に特徴点の比較が成されて画質および解像度の変化による影響を最小化して、識別の精度を高めることができる。   In addition, the method of extracting and comparing feature points based on frequency characteristics according to the applicant's existing patent application also extracts feature points for the entire area of the original image and extracts feature points in the frequency domain. Since the number of feature points is considerable, not only the amount of calculation is considerable, but also the change in image quality and resolution is weak, the present invention sets the dominant gradient extracted through the video analysis algorithm based on HOG to 2 By performing the evolution process and calculating the feature point information of the N-bit value, not only the number of feature points can be reduced than the existing one by calculating the feature points in a preset block unit, but also the feature unit can be calculated in a scene unit. Point comparisons can be made to minimize the effects of changes in image quality and resolution to increase the accuracy of identification.

一方、前記制御部150は、前記識別対象イメージに一つの関心領域が含まれた場合、前述のように前記関心領域抽出部110と、正規化部120と、映像分析部130および特徴点抽出部140とを制御し、前記識別対象イメージの関心領域における特徴点の情報と一致する基準特徴点の情報にマッチングするコンテンツ情報を特徴点DB102から抽出して、前記識別対象イメージに対応するコンテンツ情報として提供することができる。   On the other hand, when one region of interest is included in the identification target image, the control unit 150 may control the region of interest extraction unit 110, the normalization unit 120, the video analysis unit 130, and the feature point extraction unit as described above. 140, and extracts from the feature point DB 102 content information that matches information on reference feature points that match information on feature points in the region of interest of the image to be identified, as content information corresponding to the image to be identified. Can be provided.

また、前記制御部150は、前記関心領域抽出部110と連動して前記識別対象イメージから抽出される関心領域が複数か判断することができて、複数である場合、前記関心領域抽出部110と、正規化部120と、映像分析部130および特徴点抽出部140とを制御して、次のような方式で識別対象イメージに対応するコンテンツを識別し、識別されたコンテンツにおけるコンテンツ情報を提供することができる。   Also, the control unit 150 can determine whether there is a plurality of regions of interest extracted from the identification target image in conjunction with the region of interest extraction unit 110, and if there are a plurality of regions of interest, , By controlling the normalization unit 120, the video analysis unit 130, and the feature point extraction unit 140 to identify the content corresponding to the identification target image in the following manner, and provide the content information of the identified content. be able to.

まず、前記制御部150は、前記関心領域抽出部110を通じて前記識別対象イメージから複数の相違の関心領域が選択された場合、前記関心領域抽出部110と、正規化部120と、映像分析部130および特徴点抽出部140とを制御して、前記複数の相違の関心領域別の特徴点の情報を生成することによって前記識別対象イメージにおける関心領域別の特徴点を抽出することができる。   First, when a plurality of different regions of interest are selected from the identification target image through the region of interest extraction unit 110, the control unit 150 may include the region of interest extraction unit 110, the normalization unit 120, and the image analysis unit 130. By controlling the feature points and the feature point extraction unit 140 to generate information on feature points for each of the plurality of different regions of interest, feature points for each region of interest in the identification target image can be extracted.

また、前記制御部150は、前記特徴点抽出部140から前記識別対象イメージに対応して生成された複数の相違の関心領域別の特徴点の情報を基礎として特徴点DB102を検索して前記識別対象イメージの関心領域別の特徴点の情報の各々において相互一致する基準特徴点の情報にマッチングするコンテンツ情報を抽出し、前記識別対象イメージの関心領域別の特徴点の情報の各々に対応して、抽出されたコンテンツ情報が相互に全て一致する場合に前記識別対象イメージに対応して識別されたコンテンツとして前記特徴点DB102から抽出された前記コンテンツ情報を提供することができる。   Further, the control unit 150 searches the feature point DB 102 based on information of feature points for each of the plurality of different regions of interest generated from the feature point extraction unit 140 corresponding to the identification target image, and performs the identification. In each of the information of the feature points for each of the regions of interest of the target image, the content information matching the information of the reference feature points that match each other is extracted, and corresponding to each of the information of the feature points for each of the regions of interest of the identification target image. When all the extracted content information matches each other, the content information extracted from the feature point DB 102 as the content identified corresponding to the identification target image can be provided.

即ち、前記制御部150は、前記識別対象イメージの関心領域別の特徴点の情報による関心領域別の特徴点と全て一致する関心領域別の特徴点を有する特定オンライン漫画コンテンツの特定の回次における特定コンテンツ情報を抽出し、前記識別対象イメージが前記特定コンテンツ情報を複製したイメージと判断し、前記識別対象イメージの原本コンテンツ(または、複製対象コンテンツ)として前記特定コンテンツ情報を提供することができる。   That is, the control unit 150 may control the specific online comic content having a feature point for each region of interest that coincides with a feature point for each region of interest according to the information on the feature point for each region of interest in the identification target image in a specific round. It is possible to extract specific content information, determine that the identification target image is an image obtained by copying the specific content information, and provide the specific content information as original content (or copy target content) of the identification target image.

また、図9に図示のように、前記制御部150は、前記識別対象イメージの関心領域別の特徴点の情報の各々において特徴点の情報と相互一致する基準特徴点の情報にマッチングするコンテンツ情報を特徴点DB102から抽出することができて、前記識別対象イメージに対応して抽出された複数のコンテンツ情報を相互比較して一部が相違の場合、前記複数のコンテンツ情報のうち、もっとも多く検出された(または、識別された)コンテンツ情報を前記識別対象イメージに対応するコンテンツ情報として提供することができる。   Also, as shown in FIG. 9, the control unit 150 may include content information that matches information of a reference feature point that is mutually coincident with information of a feature point in each of information of feature points for each region of interest of the image to be identified. Can be extracted from the feature point DB 102, and if a plurality of pieces of content information extracted corresponding to the identification target image are partially compared with each other, the most detected among the plurality of pieces of content information is detected. The identified (or identified) content information can be provided as content information corresponding to the identification target image.

一例として、前記制御部150は、前記識別対象イメージの関心領域別の特徴点の情報に対応して、特定オンライン漫画の1回次コンテンツにおける第一コンテンツ情報が2個抽出されて、前記特定オンライン漫画の2回次コンテンツおよび3回次コンテンツに各々における第二および第三コンテンツ情報が各々1個ずつ抽出された場合、前記識別対象イメージに対応して抽出されたコンテンツ情報を識別した後、相互比較して前記識別対象イメージに対応してもっとも多く検出された(または、識別された)第一コンテンツ情報を前記識別対象イメージに対応するコンテンツ情報として提供することができる。   For example, the control unit 150 may extract two pieces of first content information in the first-order content of the specific online comic corresponding to the information on the feature points of each region of interest of the identification target image, and When the second and third content information of each of the second and third comic contents is extracted one by one, the content information extracted corresponding to the identification target image is identified, and then the mutual content is extracted. The first content information that has been detected (or identified) most frequently corresponding to the identification target image in comparison can be provided as content information corresponding to the identification target image.

それに、前記制御部150は、前記識別対象イメージに対応して生成された複数の相違の特徴点の情報のうち、一部を対象に前記特徴点DB102から前記一部の特徴点の情報に対応する一つ以上のコンテンツ情報を抽出し、前記一つ以上のコンテンツ情報を相互比較して、もっとも多く検出された(または、識別された)コンテンツ情報を前記識別対象イメージに対応するコンテンツ情報として提供することもできる。   In addition, the control unit 150 may correspond to the information of the partial feature points from the characteristic point DB 102 for a part of the information of the plurality of different characteristic points generated corresponding to the identification target image. Extracting one or more pieces of content information, comparing the one or more pieces of content information, and providing the most detected (or identified) content information as content information corresponding to the identification target image. You can also.

その他にも、前記制御部150は、識別対象イメージを複製したコンテンツを識別するための様々な条件が設定されることができて、該当条件によって識別対象イメージに対応する原本コンテンツを識別してユーザーに提供することができる。   In addition, the control unit 150 may set various conditions for identifying the content obtained by duplicating the identification target image. Can be provided.

図10は、本発明の実施例による関心領域に基づくオンライン漫画識別システムと既存の特徴点の抽出方式のパフォーマンスの比較における表を図示した図面であって、図示のように本発明は、既存の周波数特性に基づく特徴点の抽出方式による既存のアルゴリズムに比べて特徴点の個数がオンライン漫画コンテンツであるウェブ漫画1回次当り61個(平均2.87%)程度で非常に少なく、既存のアルゴリズムに比べて85.6倍のウェブ漫画の回次の特徴点DB102を構築した状態でも、既存のアルゴリズムに比べて特徴点の抽出時間および識別時間は、平均0.517秒で、2.34倍速く、全体識別速度は、平均0.83秒で0.38秒がもっと少なく所要されることを図示された表を介してわかることができる。   FIG. 10 is a table illustrating a comparison between the performance of an online comics identification system based on a region of interest according to an embodiment of the present invention and an existing feature point extraction method. As shown in FIG. Compared to the existing algorithm based on the frequency characteristic-based feature point extraction method, the number of feature points per web comic, which is online comic content, is about 61 (on average 2.87%), which is very small. Even when the feature point DB 102 of 85.6 times the web comic is constructed as compared with the conventional algorithm, the extraction time and the identification time of the feature points are 0.517 seconds on average and 2.34 times faster than the existing algorithm. In addition, it can be seen from the illustrated table that the overall identification speed requires an average of 0.83 seconds and less than 0.38 seconds.

即ち、本発明は、オンライン漫画コンテンツを構成する一つの回次におけるコンテンツから抽出される特徴点の個数を既存より少なく構成しながらも、識別処理速度および精度を既存の方式より多く改善できるのみならず、DBに保存された保有データ量が既存より多くても既存よりさらに速い識別パフォーマンスを提供することができる。   In other words, the present invention can reduce the number of feature points extracted from content in one round constituting online comic content, and can improve the identification processing speed and accuracy more than the existing method, while reducing the number of feature points less than the existing method. Instead, even if the amount of stored data stored in the DB is larger than the existing one, it is possible to provide a faster identification performance than the existing one.

図11は、本発明の実施例による関心領域に基づくオンライン漫画識別方法における順序図であって、まず相違の複数のオンライン漫画コンテンツの各々に対応し、回次別に原本イメージの関心領域別の特徴点における基準特徴点の情報が回次別のコンテンツ情報とマッチングして保存されたDBを含むサーバーは、外部から識別対象イメージを受信することができる(S1)。   FIG. 11 is a flowchart illustrating a method of identifying an online comic based on a region of interest according to an exemplary embodiment of the present invention. The server including the DB in which the information of the reference feature point at the point is matched with the content information of each time can receive the identification target image from the outside (S1).

この時、前記DBには、関心領域別に前記基準特徴点の情報が保存されることができて、前記基準特徴点の情報は、特定の回次のコンテンツ情報とマッチングして前記DBに保存されることができる。また、前記DBは、特徴点DB102か前記特徴点DB102を含めて構成されることができる。   At this time, the information of the reference feature points may be stored in the DB for each region of interest, and the information of the reference feature points may be stored in the DB in matching with the content information of a specific round. Can be Further, the DB can be configured to include the feature point DB 102 or the feature point DB 102.

また、前記サーバーは、前記識別対象イメージにおけるエッジ検出を介して関心領域を抽出することができる(S2)。   In addition, the server may extract a region of interest through edge detection in the identification target image (S2).

以後、前記サーバーは、前記関心領域を予め設定した正規化の大きさで正規化した正規化イメージを生成することができる(S3)。   Thereafter, the server may generate a normalized image in which the region of interest is normalized by a preset normalization size (S3).

また、前記サーバーは、前記正規化イメージを予め設定した大きさの複数のブロックに分割し、HOG(Histogram of Oriented Gradient)に基づいて前記ブロック別に一つ以上の支配勾配を算出することができる(S4)。   In addition, the server may divide the normalized image into a plurality of blocks of a predetermined size and calculate one or more dominant gradients for each block based on a HOG (Histogram of Oriented Gradient) ( S4).

以後、前記サーバーは、前記関心領域を構成する前記ブロック別の前記一つ以上の支配勾配を予め設定した基準(または、アルゴリズム)によって2進化処理したNビット値の特徴点の情報を前記関心領域に対応して生成することができる(S5)。   Thereafter, the server may convert the one or more dominant gradients of the blocks constituting the region of interest into N-bit feature points obtained by binarizing according to a predetermined reference (or algorithm). (S5).

これによって、前記サーバーは、前記特徴点の情報を前記基準特徴点の情報と比べて(S6)、前記特徴点の情報と一致する基準特徴点の情報が存在する場合、該基準特徴点の情報にマッチングするコンテンツ情報を前記DBから抽出して、前記識別対象イメージを前記コンテンツ情報に対応するコンテンツと判断するとともにユーザーに該識別対象イメージと連関するコンテンツとして該コンテンツ情報を提供することができる(S7)。   Accordingly, the server compares the information on the feature points with the information on the reference feature points (S6), and if there is information on the reference feature points that matches the information on the feature points, the information on the reference feature points It is possible to extract from the DB content information that matches the identification information, determine the identification target image as content corresponding to the content information, and provide the user with the content information as content associated with the identification target image ( S7).

本明細書に記述された様々な装置および構成部は、ハードウェア回路(例えば、CMOS論理回路)、ファームウェア、ソフトウェア、または、これらの組み合わせによって具現されることができる。例えば、様々な電気的構造の形でトランジスター、論理ゲートおよび電子回路を活用して具現されることができる。   The various devices and components described herein may be embodied by hardware circuits (eg, CMOS logic), firmware, software, or a combination thereof. For example, the present invention can be implemented using transistors, logic gates, and electronic circuits in various electrical structures.

前述の内容は、本発明が属する技術分野で通常の知識を有する者であるならば、本発明の本質的な特性から外れない範囲で修正および変形が可能なはずである。従って、本発明に開示された実施例らは、本発明の技術事象を限定するためのものではなく、説明するためのものであり、このような実施例によって本発明の技術事象の範囲が限定されることはない。本発明の保護範囲は、次の請求の範囲によって解釈されるべきであって、それと同等な範囲内にある全ての技術事象は、本発明の権利範囲に含まれると解釈されるべきである。   The contents described above can be modified and varied without departing from the essential characteristics of the present invention, provided that those having ordinary knowledge in the technical field to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical events of the present invention, but to explain them, and the scope of the technical events of the present invention is limited by such embodiments. It will not be done. The protection scope of the present invention should be construed according to the following claims, and all technical events falling within the equivalent scope should be construed as being included in the scope of the present invention.

101 コンテンツDB
102 特徴点DB
110 関心領域抽出部
120 正規化部
130 映像分析部
140 特徴点抽出部
150 制御部
101 Content DB
102 Feature point DB
110 region of interest extraction unit 120 normalization unit 130 video analysis unit 140 feature point extraction unit 150 control unit

Claims (9)

オンライン漫画コンテンツを構成する一つ以上の原本イメージからエッジ検出を介して関心領域を抽出する関心領域抽出部と;
前記関心領域を予め設定した正規化の大きさで正規化した正規化イメージを生成する正規化部と;
前記正規化イメージを予め設定した大きさの複数のブロックに分割し、HOG(Histogram of Oriented Gradient)に基づいて前記ブロック別に一つ以上の支配勾配を算出する映像分析部と;
前記関心領域を構成する前記ブロック別の前記一つ以上の支配勾配を予め設定した基準に従って2進化処理したNビット値の特徴点の情報を前記関心領域に対応して生成する特徴点抽出部;および
前記特徴点の情報を基準特徴点の情報として設定して、前記原本イメージに対応する前記オンライン漫画コンテンツのコンテンツ情報とマッチング保存し、識別対象イメージを受信する時、前記関心領域抽出部と、正規化部と、映像分析部および特徴点抽出部とを制御して、前記識別対象イメージに対応して特徴点の情報を生成した後、前記基準特徴点の情報と比べて、相互一致する基準特徴点の情報にマッチングするコンテンツ情報を前記識別対象イメージに対応して提供する制御部とを含む
関心領域に基づくオンライン漫画識別システム。
A region-of-interest extraction unit for extracting a region of interest from one or more original images constituting online comic content through edge detection;
A normalization unit that generates a normalized image in which the region of interest is normalized by a predetermined normalization size;
An image analyzer that divides the normalized image into a plurality of blocks of a predetermined size and calculates one or more dominant gradients for each block based on a Histogram of Oriented Gradient (HOG);
A feature point extraction unit that generates information of N-bit feature points obtained by binarizing the one or more dominant gradients for each of the blocks constituting the region of interest in accordance with a preset reference, corresponding to the region of interest; And setting the feature point information as reference feature point information, matching and storing the content information of the online manga content corresponding to the original image, and receiving the identification target image, the interest region extracting unit; The control unit controls the normalization unit, the video analysis unit, and the feature point extraction unit to generate feature point information corresponding to the identification target image, and compares the feature point information with the reference feature point information. A control unit for providing content information matching the information of the feature point in correspondence with the image to be identified.
前記コンテンツ情報は、前記オンライン漫画コンテンツの特定回においてその回の情報を含む
ことを特徴とする請求項1に記載の関心領域に基づくオンライン漫画識別システム。
The online cartoon identification system based on a region of interest according to claim 1, wherein the content information includes information on a specific time of the online cartoon content.
前記関心領域抽出部は、前記原本イメージを横および縦方向にスキャンしてエッジを検出し、前記オンライン漫画コンテンツを構成する原本イメージが複数である場合、前記原本イメージを順に連結して、単一イメージで生成した後、前記エッジを検出する
ことを特徴とする請求項1に記載の関心領域に基づくオンライン漫画識別システム。
The region of interest extracting unit may scan the original image horizontally and vertically to detect edges, and when there are a plurality of original images constituting the online comic content, connect the original images in order to form a single image. The system of claim 1, further comprising detecting the edge after generating the image.
前記関心領域抽出部は、前記原本イメージの上端、または、下端に接する特定の関心領域が存在する場合、前記特定の関心領域を除くか、前記原本イメージと連続する他の原本イメージから前記特定の関心領域に連続して繋がる関心領域を前記特定の関心領域に連結して、一つの関心領域と設定して抽出する
ことを特徴とする請求項3に記載の関心領域に基づくオンライン漫画識別システム。
The region of interest extraction unit, if there is a specific region of interest in contact with the upper end of the original image, or the lower end, excluding the specific region of interest, or from the other original image continuous with the original image, the specific region of interest The online cartoon identification system based on a region of interest according to claim 3, wherein a region of interest that is continuously connected to the region of interest is connected to the specific region of interest, and is set and extracted as one region of interest.
前記特徴点抽出部は、単位ブロックを予め設定した個数の複数のセルに分割し、HOGに基づいて単位セル別に算出した勾配を聚合して、方向別の勾配の大きさを算出し、予め設定した基準大きさ以上の大きさを有する一つ以上の支配勾配を前記単位ブロックに対応して算出する
ことを特徴とする請求項1に記載の関心領域に基づくオンライン漫画識別システム。
The feature point extraction unit divides the unit block into a predetermined number of cells, combines the gradients calculated for each unit cell based on the HOG, calculates the magnitude of the gradient for each direction, and sets the gradient in advance. The online cartoon identification system based on a region of interest according to claim 1, wherein one or more dominant gradients having a size equal to or greater than the reference size are calculated corresponding to the unit block.
前記特徴点抽出部は、前記一つ以上の支配勾配の各々の方向によって予め設定した複数の角度範囲別に支配勾配の存在可否を判断し、前記複数の角度範囲別に前記支配勾配の存在可否によって2進化処理する
ことを特徴とする請求項1に記載の関心領域に基づくオンライン漫画識別システム。
The feature point extraction unit determines whether or not there is a dominant gradient for each of a plurality of angular ranges set in advance according to the direction of each of the one or more dominant gradients, and determines whether or not the dominant gradient exists for each of the plurality of angular ranges. The online cartoon identification system based on a region of interest according to claim 1, wherein the system performs an evolution process.
前記制御部の制御によって前記基準特徴点の情報と前記コンテンツ情報がマッチングして保存される保存部をさらに含む
ことを特徴とする請求項1に記載の関心領域に基づくオンライン漫画識別システム。
The online cartoon identification system based on a region of interest according to claim 1, further comprising a storage unit that stores the information of the reference feature point and the content information in a matching manner under the control of the control unit.
前記制御部は、前記識別対象イメージに複数の関心領域が含まれた場合、前記複数の関心領域の各々の特徴点の情報と一致する基準特徴点の情報によるコンテンツ情報を識別し、前記複数の関心領域に対応して複数の相違のコンテンツ情報が識別された場合、もっとも多く識別されたコンテンツ情報を前記識別対象イメージに対応するコンテンツ情報として提供する
ことを特徴とする請求項1に記載の関心領域に基づくオンライン漫画識別システム。
When a plurality of regions of interest are included in the identification target image, the control unit identifies content information based on information of a reference feature point that matches information of each feature point of the plurality of regions of interest. The interest according to claim 1, wherein when a plurality of different pieces of content information are identified corresponding to the region of interest, the most identified content information is provided as content information corresponding to the identification target image. Online cartoon identification system based on domain.
相違の複数のオンライン漫画コンテンツの各々に対応し、回次別に原本イメージの関心領域別の特徴点における基準特徴点の情報が回次別のコンテンツ情報とマッチングして保存されたDBを含むサーバーの関心領域に基づくオンライン漫画識別方法において、
識別対象イメージを受信し、前記識別対象イメージにおけるエッジ検出を介して関心領域を抽出する段階と;
前記関心領域を予め設定した正規化の大きさで正規化した正規化イメージを生成する段階と;
前記正規化イメージを予め設定した大きさの複数のブロックに分割し、HOG(Histogram of Oriented Gradient)に基づいて前記ブロック別に一つ以上の支配勾配を算出する段階と;
前記関心領域を構成する前記ブロック別の前記一つ以上の支配勾配を予め設定した基準に従って2進化処理したNビット値の特徴点の情報を前記関心領域に対応して生成する段階;および
前記特徴点の情報を前記基準特徴点の情報と比べて、前記特徴点の情報と一致する基準特徴点の情報が存在する場合、該基準特徴点の情報にマッチングするコンテンツ情報を前記DBから抽出して、前記識別対象イメージを前記コンテンツ情報に対応するコンテンツと判断する段階とを含む
関心領域に基づくオンライン漫画識別方法。
For each of the different online comic contents, the information of the reference feature points in the feature points of each region of interest of the original image corresponding to each time is matched with the content information of each time of the server. In an online comics identification method based on a region of interest,
Receiving an image to be identified and extracting a region of interest via edge detection in the image to be identified;
Generating a normalized image in which the region of interest is normalized by a predetermined normalization size;
Dividing the normalized image into a plurality of blocks of a predetermined size, and calculating one or more dominant gradients for each of the blocks based on Histogram of Oriented Gradient (HOG);
Generating, corresponding to the region of interest, information of N-bit feature points obtained by binarizing the one or more dominant gradients for each of the blocks constituting the region of interest in accordance with a preset criterion; Point information is compared with the reference feature point information. If there is reference feature point information that matches the feature point information, content information matching the reference feature point information is extracted from the DB. Determining the image to be identified as the content corresponding to the content information.
JP2018541398A 2017-11-27 2017-11-29 Online cartoon identification system and method based on region of interest Active JP6648289B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020170159704A KR101998593B1 (en) 2017-11-27 2017-11-27 System and method for identifying online comics based on region of interest
KR10-2017-0159704 2017-11-27
PCT/KR2017/013825 WO2019103221A1 (en) 2017-11-27 2017-11-29 System and method for identifying online cartoon on basis of region of interest

Publications (2)

Publication Number Publication Date
JP2020501206A true JP2020501206A (en) 2020-01-16
JP6648289B2 JP6648289B2 (en) 2020-02-14

Family

ID=66631618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018541398A Active JP6648289B2 (en) 2017-11-27 2017-11-29 Online cartoon identification system and method based on region of interest

Country Status (3)

Country Link
JP (1) JP6648289B2 (en)
KR (1) KR101998593B1 (en)
WO (1) WO2019103221A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177960A (en) * 2021-05-28 2021-07-27 高小翎 ROI monitoring video extraction platform with edge supporting background modeling
KR102587693B1 (en) * 2021-10-08 2023-10-12 주식회사 디알엠인사이드 Image identification apparatus for protecting copyright of image and operation method thereof
CN113989313B (en) * 2021-12-23 2022-03-22 武汉智博通科技有限公司 Edge detection method and system based on image multidimensional analysis
KR20230102646A (en) * 2021-12-30 2023-07-07 김정태 Method, device and system for servicing digital comics
KR20230116280A (en) * 2022-01-28 2023-08-04 김정태 Method, device and system for servicing digital comics

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050026769A (en) 2003-09-09 2005-03-16 (주) 베타랜드 System for protecting illegal copy of online comics and mathod thereof
US20170098122A1 (en) * 2010-06-07 2017-04-06 Affectiva, Inc. Analysis of image content with associated manipulation of expression presentation
KR101298937B1 (en) * 2011-11-11 2013-08-23 서강대학교산학협력단 Apparatus for recognizing signs, Method thereof, and Method for recognizing image
KR20140072321A (en) * 2012-11-30 2014-06-13 (주)모비루스 Method for Dividing of Cartoon Frame and Method for Displaying Divided Cartoon thereof
KR101676575B1 (en) * 2015-07-24 2016-11-15 주식회사 카카오 Apparatus and method for extracting share area of comic content
KR20170055345A (en) * 2015-11-11 2017-05-19 이미지랩409(주) Social Network Service and Program using Cartoon Image Extraction and Transformation system and method using image
KR101744614B1 (en) * 2015-12-21 2017-06-09 주식회사 디알엠인사이드 System and method for identifying illegal copy of online comics

Also Published As

Publication number Publication date
JP6648289B2 (en) 2020-02-14
WO2019103221A1 (en) 2019-05-31
KR20190061383A (en) 2019-06-05
KR101998593B1 (en) 2019-07-10

Similar Documents

Publication Publication Date Title
JP6648289B2 (en) Online cartoon identification system and method based on region of interest
US10147163B2 (en) Systems and methods for automated image cropping
Wang et al. Effective image splicing detection based on image chroma
US9147127B2 (en) Verification of user photo IDs
US8358837B2 (en) Apparatus and methods for detecting adult videos
CN111079816A (en) Image auditing method and device and server
Matthews et al. Scene tagging: image-based CAPTCHA using image composition and object relationships
KR101744614B1 (en) System and method for identifying illegal copy of online comics
McBride et al. A comparison of skin detection algorithms for hand gesture recognition
Buchana et al. Simultaneous forgery identification and localization in paintings using advanced correlation filters
Scherhag et al. Face morph detection for unknown morphing algorithms and image sources: a multi‐scale block local binary pattern fusion approach
KR101803066B1 (en) Integrated identification system and method for illegal copy of book
US8913851B1 (en) Fingerprinting image using points of interest for robust image identification
Mustafa et al. Obscenity detection using haar-like features and gentle Adaboost classifier
Nugroho et al. Nipple detection to identify negative content on digital images
Zhou et al. Orientation analysis for rotated human face detection
Bashier et al. Graphical password: Pass-images Edge detection
Rad et al. Digital image forgery detection by edge analysis
Asudeh et al. Poster: phishing website detection with a multiphase framework to find visual similarity
Mall et al. Detection of structural tampering in a digital image using canny edge detector
Khan et al. Entropy based data hiding in binary document images
Kaur et al. Improved Method for Segmentation of Real-time Image of Printed Documents
Sakpal et al. Revenge Pornography Matching Using Computer Vision
Hema et al. THE IDENTIFICATION OF PILL USING FEATURE EXTRACTION IN IMAGE MINING.
WO2019208158A1 (en) Image identification device, image identification method, and image identification program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200115

R150 Certificate of patent or registration of utility model

Ref document number: 6648289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250