JP2011034251A - Countermeasure system for content illegal distribution - Google Patents

Countermeasure system for content illegal distribution Download PDF

Info

Publication number
JP2011034251A
JP2011034251A JP2009178513A JP2009178513A JP2011034251A JP 2011034251 A JP2011034251 A JP 2011034251A JP 2009178513 A JP2009178513 A JP 2009178513A JP 2009178513 A JP2009178513 A JP 2009178513A JP 2011034251 A JP2011034251 A JP 2011034251A
Authority
JP
Japan
Prior art keywords
content
illegal
request
distribution
countermeasure system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009178513A
Other languages
Japanese (ja)
Other versions
JP5413028B2 (en
Inventor
Takao Yasuhiro
隆夫 安広
Takeshi Ono
毅 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009178513A priority Critical patent/JP5413028B2/en
Publication of JP2011034251A publication Critical patent/JP2011034251A/en
Application granted granted Critical
Publication of JP5413028B2 publication Critical patent/JP5413028B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a countermeasure system for content illegal distribution, facilitating countermeasures to the illegal outflow of content such as the illegal carrying of a newly-made moving image having a copyright on a content sharing site or the like by suppressing the outflow of the content. <P>SOLUTION: The countermeasure system for content illegal distribution is provided with: a monitoring request accepting means for accepting a request from a customer about content to be monitored; a content monitoring means for monitoring carrying of the content including content modified as illegal content in the content sharing site of the Internet on the basis of the keyword; and a carrying situation notification means for, when at least the carrying of the illegal content is detected by the content monitoring means, notifying the customer of the carrying situations. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明はコンテンツの不正使用を防止する技術分野に属する。特に、動画共有サイト等へ新作等の著作権を有する動画を不正に掲載する等のコンテンツの不正な流出に対して、その流出を抑止する等の対策を行うコンテンツ不正流通対策システムに関する。   The present invention belongs to the technical field of preventing unauthorized use of content. In particular, the present invention relates to a content illegal distribution countermeasure system for taking measures such as preventing the outflow of content such as illegally posting a moving image having a copyright such as a new work on a moving image sharing site or the like.

コンテンツ共有サイトへの掲載、ファイル交換ソフトの使用、等によってネットワークを通じて権利者に無許諾で公開流通されているビデオ、音楽ファイル、コンピュータソフトなどのコンテンツの被害が多数発表されている。コンテンツについては不正使用すなわち不正流通、不正複製、不正視聴、等が常に問題となる。その不正使用を防止するため従来から様々な発明がなされている。たとえば、操作者の顔写真、計算機の操作画面を履歴に残すことで無断流通、無断複製を抑制する「通信データ監査方法および装置」が公知である(特許文献1)。また、サーバ側において電子透かしに制御情報を埋め込みユーザ側に無断複製を防止する手段を備えた「動画データ配信システム」が公知である(特許文献2)。また、流通経路を保証し不正流通を抑制する「コンテンツ保護システム」が公知である(特許文献3)。また、トラフィックパターンに基づいてコンテンツの視聴をリアルタイムに検出し、不正使用を判定する「コンテンツ不正使用判定装置」が公知である(特許文献4)。   Numerous damages to content such as videos, music files, and computer software that have been undisclosed and distributed to rights holders through the network by posting on content sharing sites and using file exchange software have been announced. As for content, illegal use, that is, illegal distribution, illegal duplication, illegal viewing, etc. are always a problem. Various inventions have heretofore been made to prevent the unauthorized use. For example, a “communication data auditing method and apparatus” that suppresses unauthorized distribution and unauthorized copying by leaving an operator's face photograph and a computer operation screen in the history is known (Patent Document 1). Also, a “moving image data distribution system” having means for embedding control information in a digital watermark on the server side and preventing unauthorized copying on the user side is known (Patent Document 2). Also, a “content protection system” that guarantees a distribution route and suppresses unauthorized distribution is known (Patent Document 3). Further, a “content unauthorized use determination device” that detects content viewing in real time based on a traffic pattern and determines unauthorized use is known (Patent Document 4).

特開平10−111855JP-A-10-111855 特開2003−153156JP 2003-153156 A 特開2004−157703JP 2004-157703 A 特開2007−207190JP2007-207190

ところで、インターネットにおける動画共有サイトでは、ユーザは自由に動画をその動画共有サイトに掲載することができる。掲載された動画はすべてのユーザによって自由に閲覧することが可能となる。勿論、掲載はユーザの責任において行われ、掲載する動画は著作権、公序良俗、等の法律上の問題がない動画であることを前提としている。しかしながら、不心得なユーザによって、著作権を有する動画を掲載する不正が行われることが多々ある。たとえば、発売されたばかりのDVDビデオを掲載する、映画館、ライブ会場、イベント会場でビデオ撮影した動画を掲載する、等の不正が行われることがある。法令によって不正を行ったユーザを罰することができるが、匿名性が高くユーザの特定が困難であるという問題がある。また、ユーザを特定しても海外に居る場合には訴訟を起こすことが困難であるという問題がある。
コンテンツのこのような不正使用の問題に対しては、上述の従来の発明によっては十分に効果的な対処を行うことができない。
By the way, in a video sharing site on the Internet, a user can freely post a video on the video sharing site. The posted videos can be freely viewed by all users. Of course, posting is performed at the responsibility of the user, and it is assumed that the moving image to be posted is a moving image having no legal problems such as copyright, public order and morals. However, there are many cases where fraudulent postings of copyrighted moving images are performed by unscrupulous users. For example, fraud may be performed such as posting a DVD video that has just been released, posting a video shot in a movie theater, live venue, or event venue. Users who have been cheated by laws can be punished, but there is a problem that it is difficult to identify users because of their high anonymity. In addition, even if the user is specified, there is a problem that it is difficult to bring a lawsuit if the user is overseas.
Such a problem of illegal use of content cannot be sufficiently effectively dealt with by the above-described conventional invention.

本発明は上記の問題を解決するために成されたものである。その目的は、動画共有サイト等へ新作等の著作権を有する動画を不正に掲載する等のコンテンツの不正な流出に対して、その流出を抑止する等の対策を行うことができるコンテンツ不正流通対策システムを提供することにある。   The present invention has been made to solve the above problems. The purpose is to prevent illegal distribution of content such as illegally publishing a copyrighted video such as a new work on a video sharing site, etc. To provide a system.

本発明の請求項1に係るコンテンツ不正流通対策システムは、監視するコンテンツについて顧客からの依頼を受付ける監視依頼受付手段と、インターネットのコンテンツ共有サイトにおける不正コンテンツとして改編したものを含む前記コンテンツの掲載をそのキーワードに基づいて監視するコンテンツ監視手段と、前記コンテンツ監視手段がすくなくとも前記不正コンテンツの掲載を検出したときには前記顧客に掲載状況を通知する掲載状況通知手段と、を具備するようにしたものである。
また、本発明の請求項2に係るコンテンツ不正流通対策システムは、請求項1に係るコンテンツ不正流通対策システムにおいて、掲載表記等の外観だけが前記掲載された不正コンテンツと同様で内容が前記不正コンテンツと異なる擬似不正コンテンツを生成する擬似不正コンテンツ生成手段と、前記擬似不正コンテンツをインターネットのコンテンツ共有サイトに配信するコンテンツ配信手段と、を具備するようにしたものである。
また、本発明の請求項3に係るコンテンツ不正流通対策システムは、請求項2に係るコンテンツ不正流通対策システムにおいて、前記配信する先のコンテンツ共有サイトにはすくなくとも前記不正コンテンツを掲載したコンテンツ共有サイトが含まれているようにしたものである。
また、本発明の請求項4に係るコンテンツ不正流通対策システムは、請求項2または3に係るコンテンツ不正流通対策システムにおいて、前記擬似不正コンテンツは前記擬似不正コンテンツ生成手段が類似する複数個を生成し、前記コンテンツ配信手段がそれらを配信するようにしたものである。
また、本発明の請求項5に係るコンテンツ不正流通対策システムは、請求項1〜4のいずれかに係るコンテンツ不正流通対策システムにおいて、前記不正コンテンツを掲載したサイトを運営する者に対して前記不正コンテンツの削除依頼のメールを自動配信する削除依頼メール配信手段を具備するようにしたものである。
また、本発明の請求項6に係るコンテンツ不正流通対策システムは、請求項1〜5のいずれかに係るコンテンツ不正流通対策システムにおいて、前記監視依頼受付手段が前記依頼を受付けたときに前記依頼を特定する番号として生成する依頼受付番号と、前記依頼を受付けた日時である依頼受付日時と、前記コンテンツ監視手段が前記不正コンテンツを検出した日である検出日と、前記削除依頼メール配信手段が前記削除依頼を行った削除依頼日と、前記コンテンツ監視手段が前記不正コンテンツを検出しなくなった日である削除日の内から、前記依頼受付番号を含むすくなくとも2つを紐付けしてログDBに保存するログDB管理手段を具備するようにしたものである。
The content unauthorized distribution countermeasure system according to claim 1 of the present invention includes a monitoring request accepting unit that accepts a request from a customer for the content to be monitored, and the posting of the content including the reorganized content as an unauthorized content on an Internet content sharing site. Content monitoring means for monitoring based on the keyword, and posting status notifying means for notifying the customer of the posting status when the content monitoring means detects the posting of the illegal content at least. .
In addition, the content illegal distribution countermeasure system according to claim 2 of the present invention is the content illegal distribution countermeasure system according to claim 1, wherein only the appearance such as posted notation is the same as the posted illegal content and the content is the illegal content. A pseudo illegal content generating unit that generates pseudo illegal content different from the above, and a content distribution unit that distributes the pseudo illegal content to a content sharing site on the Internet.
Further, the content illegal distribution countermeasure system according to claim 3 of the present invention is the content illegal distribution countermeasure system according to claim 2, wherein at least the content sharing site on which the illegal content is posted is included in the content sharing site to which the content is distributed. It is intended to be included.
The content illegal distribution countermeasure system according to claim 4 of the present invention is the content illegal distribution countermeasure system according to claim 2 or 3, wherein the pseudo illegal content generates a plurality of similar pseudo illegal content generating means. The content distribution means distributes them.
Further, the content illegal distribution countermeasure system according to claim 5 of the present invention is the content illegal distribution countermeasure system according to any one of claims 1 to 4, wherein the unauthorized operation is performed against a person who operates the site on which the unauthorized content is posted. A deletion request mail delivery means for automatically delivering a content deletion request mail is provided.
A content illegal distribution countermeasure system according to claim 6 of the present invention is the content illegal distribution countermeasure system according to any one of claims 1 to 5, wherein the request is received when the monitoring request acceptance unit accepts the request. A request reception number generated as a number to be identified, a request reception date and time that is the date and time when the request is received, a detection date and time that the content monitoring unit detects the illegal content, and the deletion request mail distribution unit and From the deletion request date when the deletion request is made and the deletion date that is the date when the content monitoring means no longer detects the unauthorized content, at least two including the request acceptance number are linked and stored in the log DB Log DB management means is provided.

本発明によれば、コンテンツ共有サイト等へ新作等の著作権を有する動画を不正に掲載する等のコンテンツの不正な流出に対して、その流出を抑止する等の対策を行うことができるコンテンツ不正流通対策システムを提供することができる。   According to the present invention, content fraud that can take measures such as deterring the outflow of content such as illegally posting a copyrighted video such as a new work on a content sharing site, etc. A distribution countermeasure system can be provided.

本発明のコンテンツ不正流通対策システムにおける構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure in the content unauthorized distribution countermeasure system of this invention. 本発明のコンテンツ不正流通対策システムにおける動作の一例を示す説明図(その1)である。It is explanatory drawing (the 1) which shows an example of the operation | movement in the content unauthorized distribution countermeasure system of this invention. 本発明のコンテンツ不正流通対策システムにおける動作の一例を示す説明図(その2)である。It is explanatory drawing (the 2) which shows an example of operation | movement in the content unauthorized distribution countermeasure system of this invention. 本発明のコンテンツ不正流通対策システムにおける動作の一例を示す説明図(その3)である。It is explanatory drawing (the 3) which shows an example of the operation | movement in the content unauthorized distribution countermeasure system of this invention. 本発明のコンテンツ不正流通対策システムにおける動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement in the content unauthorized distribution countermeasure system of this invention.

次に、本発明の実施の形態について図を参照しながら説明する。本発明のコンテンツ不正流通対策システムにおける構成の一例を図1に示す。図1において、100はコンテンツ不正流通対策システム、110は記憶部、111は監視するコンテンツ、112はキーワード、113は不正コンテンツ、114は掲載状況、115は擬似不正コンテンツ、116は閲覧データ、120は演算部、121は監視依頼受付手段、122はコンテンツ監視手段、123は掲載状況通知手段、124は擬似不正コンテンツ生成手段、125はコンテンツ配信手段、126は削除依頼メール配信手段、127はログデータベース管理手段、130はログデータベース(DB)である。
コンテンツ不正流通対策システム100は、動画等のコンテンツを共有するインターネット上のサイトにおいて不正なコンテンツが流通していないか否かを監視し、不正な流通を検出したときには、その不正に対して対策を行うシステムである。コンテンツ不正流通対策システム100はコンピュータシステムのハードウェアとソフトウェアによって実現され、図1に一例を示すように、記憶部110、演算部120、ログデータベース(DB)130、等によって構成される。
Next, embodiments of the present invention will be described with reference to the drawings. An example of the configuration of the content illegal distribution countermeasure system of the present invention is shown in FIG. In FIG. 1, 100 is a content illegal distribution countermeasure system, 110 is a storage unit, 111 is content to be monitored, 112 is a keyword, 113 is illegal content, 114 is an improper posting status, 115 is pseudo illegal content, 116 is browsing data, 120 is Calculation unit, 121 is a monitoring request receiving unit, 122 is a content monitoring unit, 123 is a posting status notifying unit, 124 is a pseudo illegal content generating unit, 125 is a content distributing unit, 126 is a deletion request mail distributing unit, and 127 is a log database management Means 130 is a log database (DB).
The content illegal distribution countermeasure system 100 monitors whether or not illegal content is distributed on an Internet site that shares content such as a moving image. When an illegal distribution is detected, a countermeasure is taken against the illegal content. It is a system to do. The content illegal distribution countermeasure system 100 is realized by hardware and software of a computer system, and includes a storage unit 110, a calculation unit 120, a log database (DB) 130, and the like as shown in FIG.

記憶部110はコンピュータシステムにおける主メモリ、ハードディスク、等の記憶部である。記憶部110はコンテンツ不正流通対策システムにおいて収集、演算、生成、等を行ったすべてのデータの記憶を行う。図1に示す一例においては、監視するコンテンツ111、キーワード112、不正コンテンツ113、掲載状況114、擬似不正コンテンツ115、閲覧データ116を記憶する。
監視するコンテンツ111は顧客から監視する依頼を受付けたコンテンツを特定するデータである。監視するコンテンツ111は、たとえば、コンテンツの名称と依頼受付番号の組合せとなっている。監視するコンテンツ111を主キーとして、依頼者である顧客の氏名(会社名)、依頼受付日、監視期間、等の依頼内容の詳細をログDB130において検索することができる。
キーワード112は監視するコンテンツ111がコンテンツ共有サイト等において掲載されているかどうかインターネットを通じて検索するためのキーワードである。キーワード112は、実体としてのコンテンツにおいて多用されるワード(人物名、場所名、等)を抽出するか、そのコンテンツを特徴付けるワードを依頼者等が付与することにより決定される。コンテンツまたはその添付ファイル等にコンテンツを表現する文字データが含まれているときには、プログラムによって自動抽出することができる。
The storage unit 110 is a storage unit such as a main memory or a hard disk in the computer system. The storage unit 110 stores all data collected, calculated, generated, and the like in the content illegal distribution countermeasure system. In the example illustrated in FIG. 1, the content 111 to be monitored, the keyword 112, the unauthorized content 113, the posting situation 114, the pseudo unauthorized content 115, and the browsing data 116 are stored.
The content 111 to be monitored is data for specifying the content that has received a request for monitoring from a customer. The content 111 to be monitored is, for example, a combination of a content name and a request reception number. Using the content 111 to be monitored as a main key, details of the request contents such as the name (company name) of the customer who is the requester, the request reception date, and the monitoring period can be searched in the log DB 130.
The keyword 112 is a keyword for searching through the Internet whether or not the content 111 to be monitored is posted on a content sharing site or the like. The keyword 112 is determined by extracting a word (person name, place name, etc.) frequently used in the content as an entity, or by adding a word characterizing the content by the client. When character data representing the content is included in the content or its attached file, it can be automatically extracted by the program.

不正コンテンツ113は監視するコンテンツ111で特定されるコンテンツそのものまたは改編したものを不正にインターネットにおいて流通させた不正コンテンツを特定するデータである。不正コンテンツ113は、たとえば、掲載されたコンテンツの名称と掲載したインターネットのURL(Uniform Resource Locator)と検出日の組合せとなっている。不正コンテンツ113はコンテンツ監視手段122によって生成される。不正コンテンツ113を主キーとして、不正コンテンツ113の削除依頼日、削除日、等のログ情報の詳細をログDB130において検索することができる。
掲載状況114は不正コンテンツの掲載状況のデータである。不正コンテンツの掲載状況はコンテンツ監視手段122によって生成され、掲載状況通知手段123によって掲載状況114として顧客に通知が行われる。また、掲載状況114はログデータベース管理手段127によってログデータベース(DB)130に保存される。掲載状況114には、その不正コンテンツに対応するコンテンツ(監視するコンテンツ111)の依頼受付番号、不正コンテンツの掲載表記、不正コンテンツが掲載されたサイト、検出日、等が含まれている。
擬似不正コンテンツ115は掲載されたコンテンツと掲載表記、等の概観だけが同様であってコンテンツの内容が不正コンテンツ113で特定されるコンテンツとは異なっているコンテンツ、すなわちダミーコンテンツである。掲載表記は、たとえば、名称、サンプル画像(サムネイル画像)、ファイルサイズ、再生時間、等のコンテンツ選択画面に表示される項目のことである。擬似不正コンテンツ115は擬似不正コンテンツ生成手段124によって生成される。
閲覧データ116はログデータベース管理手段127がログデータベース130に保存されたログ情報を編集し生成したデータである。掲載状況閲覧請求の入力が顧客等のユーザ端末またはコンテンツ不正流通対策システムそのものからあったときに、ログデータベース管理手段127は掲載状況閲覧請求の内容に応じて閲覧データを生成し記憶部110に閲覧データ116として記憶する。
The unauthorized content 113 is data for identifying the unauthorized content that is illegally distributed on the Internet as the content itself identified by the monitored content 111 or the modified content. The illegal content 113 is, for example, a combination of the name of the posted content, the posted URL (Uniform Resource Locator), and the detection date. The unauthorized content 113 is generated by the content monitoring unit 122. Using the unauthorized content 113 as a primary key, the log DB 130 can be searched for details of log information such as the deletion request date and the deletion date of the unauthorized content 113.
The posting status 114 is data on the posting status of unauthorized content. The posting status of the illegal content is generated by the content monitoring unit 122, and the posting status notifying unit 123 notifies the customer as the posting status 114. The posting status 114 is stored in the log database (DB) 130 by the log database management means 127. The posting status 114 includes a request reception number of the content corresponding to the unauthorized content (monitored content 111), a posted description of the unauthorized content, a site where the unauthorized content is posted, a detection date, and the like.
The pseudo illegal content 115 is a content that is similar in appearance only to the posted content and posted notation, and the content is different from the content specified by the illegal content 113, that is, dummy content. The posting notation is an item displayed on the content selection screen such as name, sample image (thumbnail image), file size, playback time, and the like. The pseudo illegal content 115 is generated by the pseudo illegal content generation means 124.
The browsing data 116 is data generated by the log database management unit 127 editing the log information stored in the log database 130. When the posting status browsing request is input from the user terminal of the customer or the content illegal distribution countermeasure system itself, the log database management unit 127 generates browsing data according to the content of the posting status browsing request and browses it in the storage unit 110. Store as data 116.

演算部120はコンピュータシステムにおけるCPU、DSP、アクセラレータ、等の演算部である。演算部120はコンテンツ不正流通対策システムにおけるデータの演算処理を行う。図1に示す一例においては、監視依頼受付手段121、コンテンツ監視手段122、掲載状況通知手段123、擬似不正コンテンツ生成手段124、コンテンツ配信手段125、削除依頼メール配信手段126、ログデータベース管理手段127によって演算処理が行われる。
監視依頼受付手段121は監視するコンテンツについて顧客からの依頼を受付ける。依頼を受付ける方法としては、たとえば、顧客からの依頼を受けたコンテンツ不正流通対策システムの運営者が顧客からの依頼に基づいて必要なデータ入力をコンテンツ不正流通対策システムに対して直接行う方法がある。またたとえば、顧客が自身のユーザ端末からインターネットを通じて必要なデータ入力をコンテンツ不正流通対策システムに対して行う方法がある。前者と後者の相違は、技術的には、直接入力を行うかインターネットを介して入力を行うかという相違である。一方から他方を類推することは容易であるから、ここでは後者についてだけ説明する。
監視依頼受付手段121は監視するコンテンツについて顧客からの依頼をインターネット等の通信回線を通じて受付ける。コンテンツ不正流通対策システムはウェブサーバとして、顧客が使用するユーザ端末(図示せず)が備えているクライアントソフトウェアのブラウザに対して、コンテンツ不正流通対策のサービスを提供するサービス提供会社のホームページを表示する機能を有している。顧客はユーザ端末のブラウザを使用してそのホームページから会員としてのログオン画面、依頼画面、監視するコンテンツの内容入力画面、発注画面、等へ進み、必要な入力を行い、監視を希望するコンテンツについてサービス提供会社へ依頼することができる。コンテンツの内容入力画面においてはキーワードの入力も行う。顧客がキーボードからキーワードを手入力することができる。また、複数のキーワードが記録されたキーワードファイルを読込ませることができる。また、コンテンツの種類によっては自動抽出で入力することもできる。監視依頼受付手段121は、それらの入力におけるコンテンツ不正流通対策システム側における処理を行う。また、顧客から依頼され、監視依頼受付手段121が受付けた監視するコンテンツに関するデータは、監視依頼受付手段121によって監視するコンテンツ111として、入力が行われたキーワードはキーワード112として記憶部110に記憶が行われる。また、その間の経過情報として依頼を受付けたときに生成する依頼を特定する番号である依頼受付番号、依頼を受付けた日時である依頼受付日時、等については、ログデータベース管理手段127によってログデータベース(ログDB)にログデータとして保存が行われる。
The calculation unit 120 is a calculation unit such as a CPU, a DSP, an accelerator, or the like in a computer system. The calculation unit 120 performs data calculation processing in the content illegal distribution countermeasure system. In the example shown in FIG. 1, the monitoring request receiving unit 121, the content monitoring unit 122, the posting status notification unit 123, the pseudo illegal content generation unit 124, the content distribution unit 125, the deletion request mail distribution unit 126, and the log database management unit 127. Arithmetic processing is performed.
The monitoring request receiving unit 121 receives a request from a customer for the content to be monitored. As a method of accepting a request, for example, there is a method in which an operator of a content illegal distribution countermeasure system that receives a request from a customer directly inputs necessary data to the content illegal distribution countermeasure system based on a request from a customer. . For example, there is a method in which a customer performs necessary data input from his / her user terminal to the content illegal distribution countermeasure system through the Internet. The difference between the former and the latter is technically a difference between direct input and input via the Internet. Since it is easy to infer one from the other, only the latter will be described here.
The monitoring request receiving unit 121 receives a request from a customer for the content to be monitored through a communication line such as the Internet. The content illegal distribution countermeasure system displays, as a web server, a home page of a service provider that provides a content illegal distribution countermeasure service on a client software browser provided in a user terminal (not shown) used by a customer. It has a function. Using the browser of the user terminal, the customer proceeds from the homepage to the member logon screen, request screen, content input screen for monitoring content, ordering screen, etc., and makes necessary input and services for the content desired to be monitored You can ask the provider. A keyword is also input on the content input screen. Customers can manually enter keywords from the keyboard. Further, it is possible to read a keyword file in which a plurality of keywords are recorded. Depending on the type of content, it can also be input by automatic extraction. The monitoring request reception means 121 performs processing on the content illegal distribution countermeasure system side for those inputs. Further, data related to monitored content requested by the customer and received by the monitoring request receiving unit 121 is stored in the storage unit 110 as the content 111 monitored by the monitoring request receiving unit 121, and the input keyword is stored as the keyword 112. Done. In addition, the log database management unit 127 uses the log database management unit 127 for a request reception number that is a number for identifying a request that is generated when a request is received as progress information during that time, a request reception date that is a date and time when the request is received, and the like. Log data is stored in the log DB).

コンテンツ監視手段122はインターネットのコンテンツ共有サイトにおける不正コンテンツの掲載をそのキーワードに基づいて監視する。この不正コンテンツは監視するコンテンツ111で特定されるコンテンツそのものまたは改編したものを不正にインターネットにおいて流通させたコンテンツのことである。コンテンツ監視手段122はインターネットに存在するコンテンツをキーワードに基づいて検索するための検索エンジン(プログラム)を備えている。そして、不正コンテンツと見做せるコンテンツを検出したときには、そのコンテンツを特定するデータとして不正コンテンツ113を生成し記憶部110に記憶する。不正コンテンツと見做せるか否かの判定はキーワードに基づく検索により検出されたコンテンツに対して、さらに特定の判定条件に基づいて判定して抽出されたコンテンツを不正コンテンツと見做すように構成することができる。ここで、特定の判定条件とは、たとえば、不正コンテンツに著作権を保護する電子透かしが埋め込まれていることの確認、等である。
掲載状況通知手段123は、コンテンツ監視手段122がすくなくとも不正コンテンツの掲載を検出したときには、コンテンツ監視手段122が生成する不正コンテンツの掲載状況のデータである掲載状況114を顧客に通知する。通知の形態としては、詳細をメール(電子メール)で通知する、またはメールで概要を通知し詳細は閲覧データ116(ウェブページ)を参照する、等の形態が適用される。
The content monitoring unit 122 monitors the posting of unauthorized content on the Internet content sharing site based on the keyword. This unauthorized content is content that is identified by the monitored content 111 or content that has been illegally distributed on the Internet. The content monitoring unit 122 includes a search engine (program) for searching for content existing on the Internet based on keywords. When a content that can be regarded as an unauthorized content is detected, the unauthorized content 113 is generated as data specifying the content and stored in the storage unit 110. Whether or not the content can be regarded as illegal content is determined based on a specific determination condition with respect to the content detected by the search based on the keyword, and the extracted content is regarded as illegal content. can do. Here, the specific determination condition is, for example, confirmation that a digital watermark for protecting copyright is embedded in illegal content.
When the content monitoring unit 122 detects at least the posting of illegal content, the posting status notification unit 123 notifies the customer of the posting status 114, which is data on the posting status of illegal content generated by the content monitoring unit 122. As a form of notification, a form in which details are notified by e-mail (e-mail), or an outline is notified by e-mail, and details are referred to browsing data 116 (web page) is applied.

擬似不正コンテンツ生成手段124は掲載表記等の外観だけが掲載された不正コンテンツと同様で内容が不正コンテンツと異なる擬似不正コンテンツ115を生成する。擬似不正コンテンツ生成手段124は名称、サンプル画像(サムネイル画像)、ファイルサイズ、再生時間、等のコンテンツ選択画面に表示される項目については、不正コンテンツと同様に掲載されるように擬似不正コンテンツ115を生成する。一方、内容、中身については全く意味のないものとするか、法律上、倫理上、その他において問題のないものとして擬似不正コンテンツ115を生成する。
コンテンツ配信手段125は擬似不正コンテンツ生成手段124が生成した擬似不正コンテンツ124をインターネットの複数のコンテンツ共有サイト、図1に示す一例においてはコンテンツ共有サイトA210、コンテンツ共有サイトB220、コンテンツ共有サイトC230に配信する。
The pseudo illegal content generating means 124 generates the pseudo illegal content 115 having the same content as the illegal content on which only the appearance such as the posted notation is posted, but different in content from the illegal content. The pseudo illegal content generation unit 124 sets the pseudo illegal content 115 so that the items displayed on the content selection screen such as the name, sample image (thumbnail image), file size, reproduction time, etc. are posted in the same manner as the illegal content. Generate. On the other hand, the pseudo fraudulent content 115 is generated assuming that the contents and contents are completely meaningless, or have no legal, ethical or other problems.
The content distribution unit 125 distributes the pseudo illegal content 124 generated by the pseudo illegal content generation unit 124 to a plurality of content sharing sites on the Internet, in the example shown in FIG. 1, the content sharing site A 210, the content sharing site B 220, and the content sharing site C 230. To do.

削除依頼メール配信手段126は不正コンテンツを掲載したサイトを運営する者に対して不正コンテンツの削除依頼のメールを自動配信する。コンテンツ共有サイト等を運営する者に係わるメールの宛先、等の情報(図示せず)は、当然ながら、前もって記憶部110に登録しておく。
ログデータベース管理手段127は監視依頼受付手段121が依頼を受付けたときにその依頼を特定する番号として生成する依頼受付番号と、依頼を受付けた日時である依頼受付日時と、コンテンツ監視手段122が不正コンテンツを検出した日である検出日と、削除依頼メール配信手段126が削除依頼を行った削除依頼日と、コンテンツ監視手段122が不正コンテンツを検出しなくなった日である削除日の内から、依頼受付番号を含むすくなくとも2つを紐付けしてログデータベース(DB)130に保存する。また、ログデータベース管理手段127は顧客等のユーザ端末またはコンテンツ不正流通対策システムそのものからの掲載状況閲覧請求の入力があったときには、掲載状況閲覧請求の内容に応じてログデータベース(DB)130に保存されたログ情報を編集して閲覧データを生成し記憶部110に閲覧データ116として記憶する。
ログデータベース(DB)130はログデータベース管理手段127によって管理されるデータベースである。ログデータベース(DB)130はコンテンツ不正流通対策システムにおけるログ情報を保存する。
ログデータベース管理手段127とログデータベース(DB)130によれば、監視するコンテンツについて顧客からの依頼の受付から不正コンテンツの削除までの進捗状況、その他の情報についてログDBの検索で得ることができる。
The deletion request mail distribution means 126 automatically distributes an illegal content deletion request mail to a person who operates a site on which illegal content is posted. Of course, information (not shown) such as a mail destination related to a person who operates a content sharing site or the like is registered in the storage unit 110 in advance.
The log database management unit 127 generates a request reception number that is generated as a number for identifying the request when the monitoring request reception unit 121 receives the request, a request reception date and time that is the date and time when the request is received, and the content monitoring unit 122 is illegal. From the detection date that is the date when the content is detected, the deletion request date when the deletion request mail delivery unit 126 makes a deletion request, and the deletion date that is the date when the content monitoring unit 122 no longer detects unauthorized content, a request is made. At least two including the reception number are linked and stored in the log database (DB) 130. Further, the log database management unit 127 saves in the log database (DB) 130 according to the contents of the posting status browsing request when there is an input of the posting status browsing request from the user terminal of the customer or the content illegal distribution countermeasure system itself. The log information thus edited is edited to generate browsing data, which is stored as browsing data 116 in the storage unit 110.
The log database (DB) 130 is a database managed by the log database management unit 127. The log database (DB) 130 stores log information in the content illegal distribution countermeasure system.
According to the log database management means 127 and the log database (DB) 130, the progress status from the reception of a request from a customer to the deletion of illegal content and other information can be obtained by searching the log DB for the monitored content.

以上、構成について説明した。次に、本発明のコンテンツ不正流通対策システムにおける動作について説明する。本発明のコンテンツ不正流通対策システムにおける動作の一例を説明図(その1)として図2に示す。
まず、図2のステップS11(事前に依頼)において、コンテンツについて著作権等の権利を保有している人や団体であるコンテンツホルダーまたはその代理人すなわち顧客は、コンテンツの不正な流通の監視をするように依頼を行う。この依頼がインターネットを通じてユーザ端末から行われたときには、前述したように、監視依頼受付手段121は監視するコンテンツについて顧客からの依頼をインターネット等の通信回線を通じて受付ける。また、コンテンツ不正流通対策システムの運営者がコンテンツ不正流通対策システムにおいてこの顧客の依頼内容の入力を行うこともできる。そのときには、監視依頼受付手段121はその依頼内容の入力により依頼を受付けることもできる。
次に、ステップS12(常時NW監視自動化)において、コンテンツ監視手段122はインターネットのコンテンツ共有サイトにおける不正コンテンツの掲載をそのキーワードに基づいて監視する。この監視は常時行われる。コンテンツは、図2に示すように、悪意あるユーザによって、コンテンツ共有サイトA210、コンテンツ共有サイトB220、コンテンツ共有サイトC230、ファイルコーカンサービス、まとめサイト、掲示板、等に違法アップロードされる。一般ユーザは、インターネットを通じてそれらのサイトにアクセスして不正コンテンツをダウンロードすることができる。
次に、ステップS13(連絡)において、掲載状況通知手段123は、コンテンツ監視手段122がすくなくとも不正コンテンツの掲載を検出したときには、コンテンツ監視手段122が生成する不正コンテンツの掲載状況のデータである掲載状況114を顧客に通知する。通知の形態としては、たとえばメール(電子メール)が使用される。勿論、掲載状況114が生成されたときに、コンテンツ不正流通対策システムの運営者から顧客に電話、封書、等により掲載状況114を連絡することもできる。
このように、この図2に示す一例においては。コンテンツ共有サイト等へ新作等の著作権を有する動画を不正に掲載する等のコンテンツの不正な流出に対して、不正コンテンツの掲載を検出し顧客に掲載状況を通知することによって、その流出を抑止する等の対策を行うことができる。
The configuration has been described above. Next, the operation in the content illegal distribution countermeasure system of the present invention will be described. An example of the operation in the content illegal distribution countermeasure system of the present invention is shown in FIG.
First, in step S11 (requested in advance) in FIG. 2, a content holder who is a copyright holder for the content, a content holder as an organization, or an agent thereof, that is, a customer, monitors unauthorized distribution of the content. To make a request. When this request is made from the user terminal via the Internet, as described above, the monitoring request receiving unit 121 receives a request from a customer for the content to be monitored through a communication line such as the Internet. Further, the operator of the content illegal distribution countermeasure system can input the contents of the request of the customer in the content illegal distribution countermeasure system. At that time, the monitoring request accepting means 121 can accept the request by inputting the contents of the request.
Next, in step S12 (always NW monitoring automation), the content monitoring unit 122 monitors the posting of illegal content on the Internet content sharing site based on the keyword. This monitoring is always performed. As shown in FIG. 2, the content is illegally uploaded to a content sharing site A 210, a content sharing site B 220, a content sharing site C 230, a file cocan service, a summary site, a bulletin board, etc. by a malicious user. A general user can access those sites through the Internet and download illegal contents.
Next, in step S13 (contact), the posting status notifying unit 123, when the content monitoring unit 122 detects at least the posting of illegal content, is a posting status that is data on the posting status of illegal content generated by the content monitoring unit 122. 114 is notified to the customer. For example, mail (electronic mail) is used as the notification form. Of course, when the posting situation 114 is generated, the operator of the content illegal distribution countermeasure system can notify the customer of the posting situation 114 by telephone, sealed letter, or the like.
Thus, in the example shown in FIG. In response to unauthorized leaks of content such as unauthorized posting of copyrighted videos such as new works on content sharing sites, etc., the disclosure is prevented by detecting the posting of unauthorized content and notifying the customer of the posting status. Measures can be taken.

次に、本発明のコンテンツ不正流通対策システムにおける動作について別の一例について説明する。本発明のコンテンツ不正流通対策システムにおける動作の一例を説明図(その2)として図3に示す。
まず、図3のS21(事前に依頼)において、コンテンツについて著作権等の権利を保有している人や団体であるコンテンツホルダーまたはその代理人すなわち顧客は、コンテンツの不正な流通の監視をするように依頼を行う。監視依頼受付手段121は監視するコンテンツについて顧客からの依頼を受付ける。
次に、ステップS22(常時NW監視自動化)において、コンテンツ監視手段122はインターネットのコンテンツ共有サイトにおける不正コンテンツの掲載をそのキーワードに基づいて監視する。この監視は常時行われる。本来のコンテンツは、図3に示すように、悪意あるユーザによって、コンテンツ共有サイトに違法アップロードされる。一般ユーザは、インターネットを通じてそれらのサイトにアクセスして不正コンテンツをダウンロードすることができる。
次に、ステップS23(ダミーコンテンツを大量にアップロード)において、擬似不正コンテンツ生成手段124は掲載表記等の外観だけが掲載された不正コンテンツと同様で内容が不正コンテンツと異なる擬似不正コンテンツ115を生成する。さらに、コンテンツ配信手段125は擬似不正コンテンツ生成手段124が生成した擬似不正コンテンツ115をインターネットのコンテンツ共有サイトに配信する。この配信において、配信先のコンテンツ共有サイトにはすくなくとも前述の不正コンテンツを掲載したコンテンツ共有サイトが含まれている。また、複数の類似した擬似不正コンテンツを配信することができる。また、擬似不正コンテンツをインターネットの複数のコンテンツ共有サイトに配信することもできる。
不正コンテンツを利用する一般のユーザにとっては、同名で類似のコンテンツがありすぎて本来のコンテンツにたどり着けない。したがって、事実上、コンテンツ流出を抑止することができる。
このように、この図3に示す一例においては、擬似不正コンテンツを生成しコンテンツ共有サイトに配信し本物の不正コンテンツを判別できなくしてアクセスを妨害することによって、不正コンテンツの流出を実質的に抑止することができる。また、配信する先のコンテンツ共有サイトにはすくなくとも不正コンテンツを掲載したコンテンツ共有サイトが含まれているときには、限定的な配信であったとしても不正コンテンツの実質的な流出を効果的に抑止することができる。また、擬似不正コンテンツ生成手段が類似する複数個を生成し、コンテンツ配信手段がそれらを配信するときには、本物の不正コンテンツを判別できなくする大きな作用効果が得られる。
Next, another example of the operation in the content illegal distribution countermeasure system of the present invention will be described. An example of the operation in the content illegal distribution countermeasure system of the present invention is shown in FIG.
First, in S21 (requested in advance) in FIG. 3, a content holder who is a copyright holder for the content, a content holder as an organization, or an agent thereof, that is, a customer, monitors the unauthorized distribution of the content. Make a request to The monitoring request receiving unit 121 receives a request from a customer for the content to be monitored.
Next, in step S22 (always NW monitoring automation), the content monitoring unit 122 monitors the posting of illegal content on the Internet content sharing site based on the keyword. This monitoring is always performed. The original content is illegally uploaded to the content sharing site by a malicious user as shown in FIG. A general user can access those sites through the Internet and download illegal contents.
Next, in step S23 (uploading a large amount of dummy content), the pseudo illegal content generating means 124 generates the pseudo illegal content 115 having the same content as the illegal content on which only the appearance such as the posting notation is posted and different from the illegal content. . Further, the content distribution unit 125 distributes the pseudo illegal content 115 generated by the pseudo illegal content generation unit 124 to a content sharing site on the Internet. In this distribution, the content sharing site of the distribution destination includes at least the content sharing site on which the aforementioned illegal content is posted. In addition, a plurality of similar pseudo illegal contents can be distributed. In addition, pseudo illegal contents can be distributed to a plurality of content sharing sites on the Internet.
For general users who use illegal contents, there are too many similar contents with the same name, and the original contents cannot be reached. Therefore, content leakage can be effectively suppressed.
As described above, in the example shown in FIG. 3, pseudo illegal content is generated and distributed to the content sharing site, and the unauthorized content cannot be discriminated to prevent access, thereby substantially preventing leakage of illegal content. can do. In addition, if the content sharing site to which the content is distributed contains at least a content sharing site that contains illegal content, even if it is limited distribution, effectively prevent the substantial outflow of illegal content. Can do. Further, when the pseudo illegal content generating unit generates a plurality of similar items and the content distributing unit distributes them, a great effect is obtained that makes it impossible to discriminate genuine illegal content.

次に、本発明のコンテンツ不正流通対策システムにおける動作について別の一例について説明する。本発明のコンテンツ不正流通対策システムにおける動作の一例を説明図(その3)として図4に示す。
まず、図4のステップS31(事前に依頼)において、コンテンツについて著作権等の権利を保有している人や団体であるコンテンツホルダーまたはその代理人すなわち顧客は、コンテンツの不正な流通の監視をするように依頼を行う。監視依頼受付手段121は監視するコンテンツについて顧客からの依頼を受付ける。
次に、ステップS32(不正コンテンツ検知)において、コンテンツ監視手段122はインターネットのコンテンツ共有サイトにおける不正コンテンツの掲載をそのキーワードに基づいて監視する。この監視は常時行われる。本来のコンテンツは、図4に示すように、悪意あるユーザによって、コンテンツ共有サイトに違法アップロードされる。この違法アップロードにより、コンテンツ監視手段122は不正コンテンツを検出する。
次に、ステップS33(削除依頼)において、削除依頼メール配信手段126はその不正コンテンツを掲載したサイトを運営する者に対してその不正コンテンツの削除依頼のメールを自動配信する。
次に、ステップS34(随時進捗を閲覧)において、顧客等のユーザ端末またはコンテンツ不正流通対策システムそのものからの掲載状況閲覧請求の入力があったときには、掲載状況通知請求の内容に応じてログデータベース130に保存されたログ情報を編集して閲覧データ116を生成する。閲覧データ116は顧客等のユーザ端末からはウェブページとして閲覧することができる。また、コンテンツ不正流通対策システムのディスプレイに表示することができる。
次に、ステップS35(法律事務所との連携)において、法律事務所と連携した対応が行われるが、コンテンツ不正流通対策システムのログデータベース130に保存されたログ情報に基づいて適切な証拠情報の提供を行うことができる。
このように、この図4に示す一例においては、削除依頼メール配信手段により不正コンテンツを掲載したサイトを運営する者に対して不正コンテンツの削除依頼のメールが自動配信されるときには、不正コンテンツの削除が行われることでその流出を中断することができる。また、監視するコンテンツについて顧客からの依頼の受付から不正コンテンツの削除までの進捗状況、その他の情報についてログDBの検索で得ることができる。
Next, another example of the operation in the content illegal distribution countermeasure system of the present invention will be described. An example of the operation in the content illegal distribution countermeasure system of the present invention is shown in FIG.
First, in step S31 of FIG. 4 (requested in advance), a content holder who is a copyright holder for the content, a content holder that is an organization, or an agent thereof, that is, a customer, monitors unauthorized distribution of the content. To make a request. The monitoring request receiving unit 121 receives a request from a customer for the content to be monitored.
Next, in step S32 (illegal content detection), the content monitoring means 122 monitors the posting of illegal content on the Internet content sharing site based on the keyword. This monitoring is always performed. The original content is illegally uploaded to a content sharing site by a malicious user as shown in FIG. By this illegal upload, the content monitoring unit 122 detects illegal content.
Next, in step S33 (deletion request), the deletion request mail distribution means 126 automatically distributes a mail for requesting deletion of the unauthorized content to the person who operates the site on which the unauthorized content is posted.
Next, in step S34 (viewing progress as needed), when there is an input of a publication status browsing request from a user terminal such as a customer or the content illegal distribution countermeasure system itself, the log database 130 according to the content of the publication status notification request. The browsing information 116 is generated by editing the log information stored in. The browsing data 116 can be browsed as a web page from a user terminal such as a customer. It can also be displayed on the display of the content illegal distribution countermeasure system.
Next, in step S35 (cooperation with a law firm), a cooperation with a law firm is performed, but appropriate evidence information is obtained based on the log information stored in the log database 130 of the content illegal distribution countermeasure system. Provision can be made.
As described above, in the example shown in FIG. 4, when the deletion request mail distribution means automatically distributes the unauthorized content deletion request mail to the person who operates the site where the unauthorized content is posted, the deletion of the unauthorized content is performed. Can be used to interrupt the outflow. In addition, it is possible to obtain the status of monitoring from the reception of a request from a customer to the deletion of unauthorized content, and other information by searching the log DB.

次に、本発明のコンテンツ不正流通対策システムにおける動作について不正共有サイトとの関係について説明する。本発明のコンテンツ不正流通対策システムにおける動作の一例をフロー図として図5に示す。
まず、図5のステップS201(登録された不正コンテンツ)において、不正共有サイトには不正コンテンツが登録されている。
次に、ステップS101(不正コンテンツの検索)において、コンテンツ不正対策システムにおいてはコンテンツ監視手段122がインターネットのコンテンツ共有サイトにおける不正コンテンツの掲載をキーワードに基づいて検索することで常時監視している。
次に、ステップS102(不正コンテンツ検知)において、コンテンツ不正対策システムにおいては不正コンテンツが検知されると、次のステップS103に進む。
次に、ステップS103(顧客に掲載状況を通知)において、コンテンツ不正対策システムにおいては掲載状況通知手段123がコンテンツ監視手段122が生成する掲載状況114を顧客に通知する。
次に、ステップS104(ダミーコンテンツの作成)において、コンテンツ不正対策システムにおいては擬似不正コンテンツ生成手段124が掲載表記等の外観だけが掲載された不正コンテンツと同様で内容が不正コンテンツと異なる擬似不正コンテンツ115を生成する。
次に、ステップS105(ダミーコンテンツのアップロード)において、コンテンツ不正対策システムにおいてはコンテンツ配信手段125が擬似不正コンテンツ生成手段124が生成した擬似不正コンテンツ115をインターネットのコンテンツ共有サイトに配信する。その配信は繰り返し行われる。
ステップS202(登録されたダミーコンテンツ)において、不正共有サイトには所定個数のダミーコンテンツが登録されている。
Next, the operation of the content illegal distribution countermeasure system according to the present invention will be described in relation to the illegal sharing site. An example of the operation in the content illegal distribution countermeasure system of the present invention is shown in FIG. 5 as a flowchart.
First, in step S201 (registered illegal content) in FIG. 5, illegal content is registered in the illegal sharing site.
Next, in step S101 (illegal content search), in the content fraud countermeasure system, the content monitoring unit 122 constantly monitors the posting of illegal content on the Internet content sharing site based on keywords.
Next, in step S102 (illegal content detection), if an illegal content is detected in the content fraud countermeasure system, the process proceeds to the next step S103.
Next, in step S103 (notifying the customer of the posting status), in the content fraud countermeasure system, the posting status notifying unit 123 notifies the customer of the posting status 114 generated by the content monitoring unit 122.
Next, in step S104 (creation of dummy content), in the content fraud countermeasure system, the pseudo illegal content generating means 124 is similar to the illegal content on which only the appearance such as the posting notation is posted and the content is different from the illegal content. 115 is generated.
Next, in step S105 (uploading dummy content), in the content fraud countermeasure system, the content distribution unit 125 distributes the pseudo illegal content 115 generated by the pseudo illegal content generation unit 124 to the content sharing site on the Internet. The distribution is repeated.
In step S202 (registered dummy content), a predetermined number of dummy contents are registered in the unauthorized sharing site.

動画共有サイト等へ新作等の著作権を有する動画を不正に掲載する等のコンテンツの不正な流出に対して、その流出を抑止する等の対策、等において利用可能である。   It can be used for measures such as deterring the outflow of content such as illegally posting a copyrighted video such as a new work on a video sharing site or the like.

100 コンテンツ不正流通対策システム
110 記憶部
111 監視するコンテンツ
112 キーワード
113 不正コンテンツ
114 掲載状況
115 擬似不正コンテンツ
116 閲覧データ
120 演算部
121 監視依頼受付手段
122 コンテンツ監視手段
123 掲載状況通知手段
124 擬似不正コンテンツ生成手段
125 コンテンツ配信手段
126 削除依頼メール配信手段
127 ログデータベース管理手段
130 ログデータベース(DB)
100 Content Unauthorized Distribution Countermeasure System 110 Storage Unit 111 Monitored Content 112 Keyword 113 Unauthorized Content 114 Posting Status 115 Pseudo Unauthorized Content 116 Browsing Data 120 Operation Unit 121 Monitoring Request Accepting Unit 122 Content Monitoring Unit 123 Posting Status Notifying Unit 124 Pseudo Unauthorized Content Generation Means 125 Content delivery means 126 Deletion request mail delivery means 127 Log database management means 130 Log database (DB)

Claims (6)

監視するコンテンツについて顧客からの依頼を受付ける監視依頼受付手段と、
インターネットのコンテンツ共有サイトにおける不正コンテンツとして改編したものを含む前記コンテンツの掲載をそのキーワードに基づいて監視するコンテンツ監視手段と、
前記コンテンツ監視手段がすくなくとも前記不正コンテンツの掲載を検出したときには前記顧客に掲載状況を通知する掲載状況通知手段と、
を具備することを特徴とするコンテンツ不正流通対策システム。
A monitoring request receiving means for receiving a request from a customer for the content to be monitored;
Content monitoring means for monitoring the posting of the content including the reorganized content as illegal content on the Internet content sharing site based on the keyword;
Posting status notifying means for notifying the customer of the posting status when the content monitoring means detects at least the posting of the unauthorized content;
A content illegal distribution countermeasure system comprising:
請求項1に記載のコンテンツ不正流通対策システムにおいて、掲載表記等の外観だけが前記掲載された不正コンテンツと同様で内容が前記不正コンテンツと異なる擬似不正コンテンツを生成する擬似不正コンテンツ生成手段と、
前記擬似不正コンテンツをインターネットのコンテンツ共有サイトに配信するコンテンツ配信手段と、
を具備することを特徴とするコンテンツ不正流通対策システム。
In the content illegal distribution countermeasure system according to claim 1, pseudo illegal content generating means for generating pseudo illegal content that is similar to the posted illegal content only in appearance such as posted notation, and whose content is different from the illegal content,
Content distribution means for distributing the pseudo illegal content to an Internet content sharing site;
A content illegal distribution countermeasure system comprising:
請求項2に記載のコンテンツ不正流通対策システムにおいて、前記配信する先のコンテンツ共有サイトにはすくなくとも前記不正コンテンツを掲載したコンテンツ共有サイトが含まれていることを特徴とするコンテンツ不正流通対策システム。 The content illegal distribution countermeasure system according to claim 2, wherein the content sharing site to which the distribution is made includes at least a content sharing site on which the illegal content is posted. 請求項2または3に記載のコンテンツ不正流通対策システムにおいて、前記擬似不正コンテンツは前記擬似不正コンテンツ生成手段が類似する複数個を生成し、前記コンテンツ配信手段がそれらを配信することを特徴とするコンテンツ不正流通対策システム。 4. The content illegal distribution countermeasure system according to claim 2 or 3, wherein said pseudo illegal content generates a plurality of similar pseudo illegal content generation means, and said content distribution means distributes them. Unauthorized distribution countermeasure system. 請求項1〜4のいずれかに記載のコンテンツ不正流通対策システムにおいて、前記不正コンテンツを掲載したサイトを運営する者に対して前記不正コンテンツの削除依頼のメールを自動配信する削除依頼メール配信手段を具備することを特徴とするコンテンツ不正流通対策システム。 5. The content illegal distribution countermeasure system according to claim 1, further comprising a deletion request mail distribution means for automatically distributing a mail for requesting deletion of the illegal content to a person who operates a site on which the illegal content is posted. A content illegal distribution countermeasure system comprising: 請求項1〜5のいずれかに記載のコンテンツ不正流通対策システムにおいて、前記監視依頼受付手段が前記依頼を受付けたときに前記依頼を特定する番号として生成する依頼受付番号と、前記依頼を受付けた日時である依頼受付日時と、前記コンテンツ監視手段が前記不正コンテンツを検出した日である検出日と、前記削除依頼メール配信手段が前記削除依頼を行った削除依頼日と、前記コンテンツ監視手段が前記不正コンテンツを検出しなくなった日である削除日の内から、前記依頼受付番号を含むすくなくとも2つを紐付けしてログDBに保存するログDB管理手段を具備することを特徴とするコンテンツ不正流通対策システム。 6. The content illegal distribution countermeasure system according to claim 1, wherein a request reception number generated as a number for identifying the request when the monitoring request reception unit receives the request, and the request is received. A request reception date and time that is a date and time, a detection date that is a date when the content monitoring means detects the unauthorized content, a deletion request date that the deletion request mail delivery means makes the deletion request, and the content monitoring means that the An unauthorized content distribution comprising log DB management means for linking at least two including the request acceptance number and storing them in a log DB from a deletion date that is a date when no unauthorized content is detected Countermeasure system.
JP2009178513A 2009-07-31 2009-07-31 Content illegal distribution countermeasure system Active JP5413028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009178513A JP5413028B2 (en) 2009-07-31 2009-07-31 Content illegal distribution countermeasure system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009178513A JP5413028B2 (en) 2009-07-31 2009-07-31 Content illegal distribution countermeasure system

Publications (2)

Publication Number Publication Date
JP2011034251A true JP2011034251A (en) 2011-02-17
JP5413028B2 JP5413028B2 (en) 2014-02-12

Family

ID=43763277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009178513A Active JP5413028B2 (en) 2009-07-31 2009-07-31 Content illegal distribution countermeasure system

Country Status (1)

Country Link
JP (1) JP5413028B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342146A (en) * 2001-05-18 2002-11-29 System Engineering Center Co Ltd Method and device for monitoring electronic bulletin board information on homepage, method and device for monitoring alteration inhibition information, method and device for monitoring particular term or particular sentence
JP2004112318A (en) * 2002-09-18 2004-04-08 Victor Co Of Japan Ltd System for searching illegitimate use of contents
JP2005223653A (en) * 2004-02-05 2005-08-18 Ricoh Co Ltd Illegal duplication prevention system, method for preventing illegal duplication and illegal duplication prevention program
JP2007018028A (en) * 2005-07-05 2007-01-25 Takeshi Kamei Information protection system, information protection server, information protection method, information protection program
JP2008191838A (en) * 2007-02-02 2008-08-21 Hitachi Electronics Service Co Ltd Information management system
JP2008197854A (en) * 2007-02-13 2008-08-28 Net Agent Kk SPREAD PREVENTION METHOD OF INFORMATION LEAKED IN P2P(Peer-to-Peer) NETWORK
WO2008146813A1 (en) * 2007-05-29 2008-12-04 Yomiuri Telecasting Corporation Image information acquisition device, its method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342146A (en) * 2001-05-18 2002-11-29 System Engineering Center Co Ltd Method and device for monitoring electronic bulletin board information on homepage, method and device for monitoring alteration inhibition information, method and device for monitoring particular term or particular sentence
JP2004112318A (en) * 2002-09-18 2004-04-08 Victor Co Of Japan Ltd System for searching illegitimate use of contents
JP2005223653A (en) * 2004-02-05 2005-08-18 Ricoh Co Ltd Illegal duplication prevention system, method for preventing illegal duplication and illegal duplication prevention program
JP2007018028A (en) * 2005-07-05 2007-01-25 Takeshi Kamei Information protection system, information protection server, information protection method, information protection program
JP2008191838A (en) * 2007-02-02 2008-08-21 Hitachi Electronics Service Co Ltd Information management system
JP2008197854A (en) * 2007-02-13 2008-08-28 Net Agent Kk SPREAD PREVENTION METHOD OF INFORMATION LEAKED IN P2P(Peer-to-Peer) NETWORK
WO2008146813A1 (en) * 2007-05-29 2008-12-04 Yomiuri Telecasting Corporation Image information acquisition device, its method, and program

Also Published As

Publication number Publication date
JP5413028B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
RU2656995C2 (en) System and method for monitoring third party access to restricted item
JP5383830B2 (en) Methods for protecting user privacy
US8442997B2 (en) Method and apparatus for monitoring the distribution of electronic files
US7895123B1 (en) Digital content publication
US9137415B2 (en) Using a security feature with a digital image file
TW201235882A (en) A system and method to protect user privacy in multimedia uploaded to internet sites
US8949156B2 (en) Digital rights content services architecture
US20140237233A1 (en) Method and apparatus for providing content
US10432633B1 (en) Replacing unauthorized media items with authorized media items across platforms
KR101162318B1 (en) Image editing apparatus and image copyright protective system, and method for providing the image
WO2020085226A1 (en) Control method, content management system, program, and data structure
WO2007141927A1 (en) Content reproducing system, client terminal, advertisement server, decoding driver, and content reproducing method
JP5413028B2 (en) Content illegal distribution countermeasure system
Salama et al. Metadata based forensic analysis of digital information in the web
CN101404573B (en) Authorization method, system and apparatus
US20130198621A1 (en) Document Tracking System and Method
Newton Global solutions to prevent copyright infringement of music over the Internet: The need to supplement the WIPO internet treaties with self-imposed mandates
KR100973220B1 (en) System for protecting of digital rights using watermark
KR100958516B1 (en) Method, system, and computer-readable recording medium for protecting copyright on base contents in association with secondary contents
KR20130006995A (en) Method for providing contents of digital image and web server implementing the same
Kolisnykova et al. Copyright Protection on YouTube and Instagram
JP2018097587A (en) Submission management device, submission management method, and submission management program
JP2003030359A (en) Device and method for monitoring infringement of copyright
KR20030084172A (en) Distribution method of digital copyrights using P2P system and their system
Carnevale Questions of Copyright in Google's Image Search: Development in Perfect 10, Inc. v. Amazon. com, Inc.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131028

R150 Certificate of patent or registration of utility model

Ref document number: 5413028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150