JP2003099778A - Image recognition method and device - Google Patents

Image recognition method and device

Info

Publication number
JP2003099778A
JP2003099778A JP2001288574A JP2001288574A JP2003099778A JP 2003099778 A JP2003099778 A JP 2003099778A JP 2001288574 A JP2001288574 A JP 2001288574A JP 2001288574 A JP2001288574 A JP 2001288574A JP 2003099778 A JP2003099778 A JP 2003099778A
Authority
JP
Japan
Prior art keywords
image
pattern
object pattern
learning
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001288574A
Other languages
Japanese (ja)
Other versions
JP4643872B2 (en
Inventor
Koto Kado
洪涛 門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2001288574A priority Critical patent/JP4643872B2/en
Publication of JP2003099778A publication Critical patent/JP2003099778A/en
Application granted granted Critical
Publication of JP4643872B2 publication Critical patent/JP4643872B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image recognition method and the like capable of automatically detecting an image belonging to a specific category. SOLUTION: In previous learning processing shown in a figure 8a, an automatic learning part sorts learning sample images between indecent images and decent images by using an initial template. When the result is corrected according to determination by the user, a reference template is obtained. In home page monitoring processing shown in a figure 8b, an automatic determining part sorts monitoring objective images between the indecent images and the decent images on the basis of the reference template obtained in the figure 8a.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、特定の範疇に属
する写真等の画像を検出するための画像認識方法及び装
置、並びにこれらを実現するためのプログラムに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition method and apparatus for detecting an image such as a photograph belonging to a specific category, and a program for realizing these.

【0002】[0002]

【従来の技術】特開平11−25271号公報には、写
真から画像内オブジェクトを抽出するための方法が開示
されている。この方法では、階調の連続性を利用して徐
々に階調エッジ画像を拡大して画像内オブジェクトを得
ている。この方法を利用すれば、特定の画像に類似する
画像を自動的に検索することができる。つまり、写真画
像等からある程度意味のあるオブジェクトを適宜抽出す
ることができ、多数の写真画像等中から目的とする特定
画像(キー画像)に類似する画像を自動的検索すること
もできる。
2. Description of the Related Art Japanese Unexamined Patent Publication No. 11-25271 discloses a method for extracting an in-image object from a photograph. In this method, the gradation edge image is gradually enlarged by utilizing the continuity of the gradation to obtain the object in the image. By using this method, an image similar to a specific image can be automatically searched. That is, it is possible to appropriately extract a meaningful object from a photographic image or the like, and it is also possible to automatically search for an image similar to a target specific image (key image) from a large number of photographic images or the like.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記公報に開
示の方法では、例えば猥褻画像のように特定カテゴリに
属する画像を的確に検出することができない。すなわ
ち、カテゴリは、抽象的であいまいな概念的広がりを有
するものであり、特定カテゴリに属するか否かの基準も
必ずしも明確にできない場合が多くその基準も時代とと
もに推移する可能性があることから、ある画像が特定カ
テゴリに属するか否かを自動的に適切に判定することは
できていない。また、判定の対象が生物等の画像である
場合、その姿勢の変化、背景物体の種類・有無など画像
に多様性が不可避的に存在するが、このような多様性に
対応できる体系的なカテゴリ判定法がまだ存在しない。
However, the method disclosed in the above publication cannot accurately detect an image belonging to a specific category, such as an obscene image. In other words, categories have an abstract and ambiguous conceptual spread, and the criteria for whether or not they belong to a particular category are often not always clear, so that criteria may change over time. It has not been possible to automatically and appropriately determine whether or not an image belongs to a specific category. In addition, when the target of judgment is an image of a living thing, there is inevitably a variety of images such as changes in its posture and the type / presence / absence of background objects, but a systematic category that can handle such diversity. There is no judgment method yet.

【0004】そこで、本発明は、特定カテゴリに属する
オブジェクトを自動的に抽出することができる画像認識
方法等を提供することを目的とする。
Therefore, an object of the present invention is to provide an image recognition method and the like which can automatically extract objects belonging to a specific category.

【0005】また、本発明は、特定カテゴリに属する画
像を自動的に検出することができる画像認識方法等を提
供することを目的とする。
Another object of the present invention is to provide an image recognition method and the like which can automatically detect images belonging to a specific category.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するた
め、本発明の画像認識方法は、記憶した複数の基準パタ
ーンと、学習用画像中から抽出したオブジェクトパター
ンとを比較して、例えば前記基準パターンと特定のオブ
ジェクトパターンとの関連性が所定以上になった場合に
当該特定のオブジェクトパターンを前記複数の基準パタ
ーンの内容に追加する工程と、検査画像中からオブジェ
クトパターンを抽出する工程と、前記検査画像中から抽
出したオブジェクトパターンと前記基準パターンとを比
較する工程とを備える。
In order to solve the above-mentioned problems, the image recognition method of the present invention compares a plurality of stored reference patterns with an object pattern extracted from a learning image, for example, the above-mentioned reference Adding the specific object pattern to the contents of the plurality of reference patterns when the relationship between the pattern and the specific object pattern exceeds a predetermined level; extracting the object pattern from the inspection image; And a step of comparing the object pattern extracted from the inspection image with the reference pattern.

【0007】上記方法では、前記基準パターンと特定の
オブジェクトパターンとの関連性が所定以上になった場
合に、当該特定のオブジェクトパターンを前記複数の基
準パターンの内容に追加するので、複数の基準パターン
を適切なものに更新しつつ検査画像中から抽出したオブ
ジェクトパターンとの関連性を判定することができる。
よって、抽象的であいまいな特定カテゴリに属するオブ
ジェクト等を高い確度で自動的に検出することができ
る。なお、ここでオブジェクトパターンについて「追
加」とは、基準パターンにオブジェクトパターンを追加
して基準パターンを増やすことのほか、基準パターンの
いずれかを追加のオブジェクトパターンと置換すること
を含む。
In the above method, when the relation between the reference pattern and the specific object pattern exceeds a predetermined level, the specific object pattern is added to the contents of the plurality of reference patterns. Can be updated to an appropriate one and the relevance to the object pattern extracted from the inspection image can be determined.
Therefore, it is possible to automatically detect an object that belongs to an abstract and ambiguous specific category with high accuracy. Here, "adding" with respect to the object pattern includes adding the object pattern to the reference pattern to increase the reference pattern, and replacing any one of the reference patterns with the additional object pattern.

【0008】上記方法の具体的な態様では、前記検査画
像中から抽出したオブジェクトパターンと前記基準パタ
ーンとの関連性が所定以上になった場合に、前記検査画
像が所定の範疇に属する画像であると判定する工程をさ
らに備える。この場合、多数の画像から猥褻画像等の所
定の範疇に属する画像をある程度の確度で自動的に検出
することができる。
In a specific aspect of the above method, the inspection image is an image belonging to a predetermined category when the relationship between the object pattern extracted from the inspection image and the reference pattern is equal to or more than a predetermined value. And a step of determining In this case, an image belonging to a predetermined category such as an obscene image can be automatically detected from a large number of images with a certain degree of certainty.

【0009】上記方法の別の具体的な態様では、例えば
前記基準パターンと特定のオブジェクトパターンとの関
連性が所定以上になった場合において、さらに前記学習
用画像が前記所定の範疇に属する典型画像であると判断
された場合に、当該特定のオブジェクトパターンを前記
複数の基準パターンの内容に追加する。この場合、典型
画像を利用して、上述の複数の基準パターンをより適切
なものに更新することができる。
In another specific mode of the above method, for example, when the relationship between the reference pattern and a specific object pattern exceeds a predetermined value, the learning image is further classified into a typical image belonging to the predetermined category. If it is determined that the specific object pattern is added, the specific object pattern is added to the contents of the plurality of reference patterns. In this case, the typical image can be used to update the plurality of reference patterns described above to more appropriate ones.

【0010】上記方法の別の具体的な態様では、前記所
定の範疇に属する追加画像中から抽出したオブジェクト
パターンが前記所定の範疇に属する原因となると判断さ
れた場合に、前記追加画像中から抽出したオブジェクト
パターンを前記複数の基準パターンの内容に追加する工
程をさらに備える。この場合、典型画像中の重要なオブ
ジェクトパターンを選択することができ、上述の複数の
基準パターンをより適切なものに更新することができ
る。
In another specific mode of the above method, when it is determined that the object pattern extracted from the additional image belonging to the predetermined category causes the belonging to the predetermined category, the object pattern is extracted from the additional image. The method further comprises the step of adding the created object pattern to the contents of the plurality of reference patterns. In this case, an important object pattern in the typical image can be selected, and the plurality of reference patterns described above can be updated to more appropriate ones.

【0011】上記方法の別の具体的な態様では、前記検
査画像中から抽出したオブジェクトパターンと前記基準
パターンとの類似性が所定以上になった場合に、前記検
査画像中から抽出したオブジェクトパターンを保存する
工程をさらに備える。この場合、多数の画像から肖像等
の所定の範疇に属するオブジェクトパターンをある程度
の確度で自動的に保存することができる。
In another specific aspect of the above method, when the similarity between the object pattern extracted from the inspection image and the reference pattern is more than a predetermined value, the object pattern extracted from the inspection image is The method further includes a step of storing. In this case, object patterns belonging to a predetermined category such as portraits can be automatically saved from a large number of images with a certain degree of certainty.

【0012】上記方法の別の具体的な態様では、前記検
査画像中から抽出した複数のオブジェクトパターン間の
相対的な配置関係を要素として、前記類似性を判断す
る。この場合、肖像等の所定の範疇に属するオブジェク
トパターンをより高い確度で認識することができる。
In another specific mode of the above method, the similarity is judged by using a relative arrangement relationship between a plurality of object patterns extracted from the inspection image as an element. In this case, object patterns belonging to a predetermined category such as portraits can be recognized with higher accuracy.

【0013】本発明の画像認識装置は、記憶した複数の
基準パターンと、学習用画像中から抽出したオブジェク
トパターンとを比較して、前記基準パターンと特定のオ
ブジェクトパターンとの関連性が所定以上になった場合
に、当該特定のオブジェクトパターンを前記複数の基準
パターンの内容に追加する手段と、検査画像中からオブ
ジェクトパターンを抽出する手段と、前記検査画像中か
ら抽出したオブジェクトパターンと前記基準パターンと
を比較する手段とを備える。
The image recognition apparatus of the present invention compares a plurality of stored reference patterns with an object pattern extracted from the learning image, and determines whether the reference pattern and the specific object pattern have a predetermined relationship or more. In this case, means for adding the specific object pattern to the contents of the plurality of reference patterns, means for extracting the object pattern from the inspection image, object pattern extracted from the inspection image and the reference pattern And means for comparing.

【0014】上記装置では、前記基準パターンと特定の
オブジェクトパターンとの関連性が所定以上になった場
合に、当該特定のオブジェクトパターンを前記複数の基
準パターンの内容に追加するので、複数の基準パターン
を適切なものに更新しつつ検査画像中から抽出したオブ
ジェクトパターンとの関連性を判定することができる。
よって、抽象的であいまいな特定カテゴリに属するオブ
ジェクト等を高い確度で自動的に検出することができ
る。
In the above apparatus, when the relation between the reference pattern and the specific object pattern exceeds a predetermined level, the specific object pattern is added to the contents of the plurality of reference patterns. Can be updated to an appropriate one and the relevance to the object pattern extracted from the inspection image can be determined.
Therefore, it is possible to automatically detect an object that belongs to an abstract and ambiguous specific category with high accuracy.

【0015】本発明のコンピュータプログラムは、コン
ピュータを、記憶した複数の基準パターンと学習用画像
中から抽出したオブジェクトパターンとを比較して、前
記基準パターンと特定のオブジェクトパターンとの関連
性が所定以上になった場合に、当該特定のオブジェクト
パターンを前記複数の基準パターンの内容に追加する手
段と、検査画像中からオブジェクトパターンを抽出する
手段と、前記検査画像中から抽出したオブジェクトパタ
ーンと前記基準パターンとを比較する手段として機能さ
せる。
According to the computer program of the present invention, a computer compares a plurality of stored reference patterns with an object pattern extracted from a learning image, and the relation between the reference pattern and a specific object pattern is more than a predetermined value. In this case, the specific object pattern is added to the contents of the plurality of reference patterns, the object pattern is extracted from the inspection image, the object pattern extracted from the inspection image, and the reference pattern. It functions as a means to compare and.

【0016】上記コンピュータプログラムを組み込んだ
コンピュータでは、前記基準パターンと特定のオブジェ
クトパターンとの関連性が所定以上になった場合に、当
該特定のオブジェクトパターンを前記複数の基準パター
ンの内容に追加するので、複数の基準パターンを適切な
ものに更新しつつ検査画像中から抽出したオブジェクト
パターンとの関連性を判定することができる。よって、
抽象的であいまいな特定カテゴリに属するオブジェクト
等を高い確度で自動的に検出することができる。
In the computer incorporating the above computer program, the specific object pattern is added to the contents of the plurality of reference patterns when the relationship between the reference pattern and the specific object pattern exceeds a predetermined level. , It is possible to determine the relevance to the object pattern extracted from the inspection image while updating the plurality of reference patterns to appropriate ones. Therefore,
It is possible to automatically detect an object that belongs to an abstract and ambiguous specific category with high accuracy.

【0017】[0017]

【発明の実施の形態】〔第1実施形態〕図1は、第1実
施形態に係る画像認識装置及び方法を実現するためのネ
ットワークシステムの全体構造を示す。
BEST MODE FOR CARRYING OUT THE INVENTION [First Embodiment] FIG. 1 shows the overall structure of a network system for realizing an image recognition apparatus and method according to the first embodiment.

【0018】このネットワークシステムは、通信ネット
ワークであるインターネットINと、このインターネッ
トINに接続されて画像を含む各種情報を送信する多数
のWEBサーバNSと、多数のWEBサーバNSが提供
する画像情報を自動的に監視することができる監視シス
テムMSとからなる。
This network system automatically uses the Internet IN, which is a communication network, a large number of WEB servers NS connected to the Internet IN to transmit various information including images, and image information provided by the large number of WEB servers NS. And a monitoring system MS that can monitor the target.

【0019】WEBサーバNSは、インターネットIN
に直接的若しくは間接的に接続するための通信装置を備
えたコンピュータシステムであり、インターネットIN
を介して各種ホームページを公開している。なお、WE
BサーバNSが提供するホームページには、各種カテゴ
リに属する画像が含まれている。
The WEB server NS is the Internet IN
Is a computer system equipped with a communication device for connecting directly or indirectly to the Internet IN
Various homepages are published via. In addition, WE
Images belonging to various categories are included in the home page provided by the B server NS.

【0020】監視システムMSも、インターネットIN
に直接的若しくは間接的に接続するための通信装置を備
えたコンピュータシステムであり、多数のWEBサーバ
NSが提供するホームページにアクセス可能になってい
る。なお、この監視システムMSは、多数のWEBサー
バNSが提供するホームページ中に例えば猥褻画像が含
まれているか否かを自動的に監視するための画像検出装
置すなわち画像認識装置である。
The monitoring system MS is also the Internet IN
Is a computer system equipped with a communication device for directly or indirectly connecting to the web site, and is capable of accessing home pages provided by a large number of WEB servers NS. The monitoring system MS is an image detecting device, that is, an image recognizing device for automatically monitoring whether or not, for example, an obscene image is included in homepages provided by a large number of WEB servers NS.

【0021】図2は、図1に示す監視システムMSの構
造を概念的に説明するブロック図である。図示の監視シ
ステムMSは、一般的なコンピュータと同様に、CPU
21、入力装置22、表示装置23、記憶装置24、及
び通信制御装置25を備えている。
FIG. 2 is a block diagram conceptually explaining the structure of the monitoring system MS shown in FIG. The monitoring system MS shown in the figure is a CPU similar to a general computer.
21, an input device 22, a display device 23, a storage device 24, and a communication control device 25.

【0022】CPU21は、バス100を介して、表示
装置23、記憶装置24や通信制御装置25との間で相
互にデータの授受が可能になっている。また、CPU2
1は、入力装置22からの指示に基づいて、記憶装置2
4や通信制御装置25から所定のプログラムやデータを
読み出し、これらプログラム及びデータに基づく各種処
理を実行する。
The CPU 21 can exchange data with the display device 23, the storage device 24, and the communication control device 25 via the bus 100. Also, CPU2
1 is a storage device 2 based on an instruction from the input device 22.
4 and the communication control device 25 to read a predetermined program and data, and execute various processes based on these programs and data.

【0023】具体的に説明すると、CPU21は、事前
学習プログラムにおいて、入力装置22からの指示に基
づいて、入力装置22、記憶装置24等を介して入力さ
れた学習用画像中から適宜抽出したオブジェクトパター
ンを基準パターンである基準テンプレートに追加して、
基準テンプレートの適正化を図ることができる。また、
CPU21は、ホームページ監視プログラムにおいて、
入力装置22からの指示に基づいて、通信制御装置25
を介して入手したホームページデータに含まれる画像中
から適宜オブジェクトパターンを抽出し、このオブジェ
クトパターンと学習によって更新した基準テンプレート
とを比較して画像の猥褻性を自動判定する。
More specifically, the CPU 21 appropriately extracts an object from the learning image input via the input device 22, the storage device 24, etc. based on an instruction from the input device 22 in the pre-learning program. Add the pattern to the reference template, which is the reference pattern,
The reference template can be optimized. Also,
CPU21, in the homepage monitoring program,
Based on the instruction from the input device 22, the communication control device 25
An object pattern is appropriately extracted from the image included in the homepage data obtained through, and the object pattern is compared with the reference template updated by learning to automatically determine the obscenity of the image.

【0024】入力装置22は、キーボード等から構成さ
れ、表示装置23を利用したGIU操作により、監視シ
ステムMSを操作するオペレータの意思を反映した指令
信号をCPU21に出力する。
The input device 22 is composed of a keyboard or the like, and outputs a command signal reflecting the intention of the operator who operates the monitoring system MS to the CPU 21 by GIU operation using the display device 23.

【0025】表示装置23は、CPU21から入力され
るデータに基づいて駆動信号を生成する表示駆動回路
と、表示駆動回路から入力される駆動信号に基づいて必
要な表示を行うCRT等により構成され、CPU21か
らの指令信号に基づいて必要な表示を行う。
The display device 23 is composed of a display drive circuit which generates a drive signal based on the data input from the CPU 21, and a CRT which performs a necessary display based on the drive signal input from the display drive circuit. Required display is performed based on the command signal from the CPU 21.

【0026】記憶装置24は、監視システムMSを動作
させる基本プログラム等を複数記憶しているROMと、
アプリケーションプログラム、入力指示、入力データ、
処理結果等を一時格納するワークメモリ等のRAMとを
備える。さらに、記憶装置24は、磁気的、或いは光学
的な手法によってアプリケーションプログラムやデータ
を保持することができる記録媒体を駆動するためのドラ
イブを備えており、駆動される記録媒体は、記憶装置2
4に固定的に設けたもの、若しくは着脱自在に装着する
ものとできる。なお、上記アプリケーションプログラム
には、事前学習プログラム、ホームページ監視プログラ
ムが含まれ、上記データには、各種画像を含むデータベ
ース等が含まれる。
The storage device 24 includes a ROM storing a plurality of basic programs for operating the monitoring system MS, and the like.
Application program, input instruction, input data,
A RAM such as a work memory for temporarily storing processing results and the like is provided. Further, the storage device 24 includes a drive for driving a recording medium capable of holding an application program and data by a magnetic or optical method, and the driven recording medium is the storage device 2.
4 can be fixedly provided or can be detachably mounted. The application programs include a pre-learning program and a homepage monitoring program, and the data includes a database including various images.

【0027】通信制御装置25は、LANアダプタ等に
よって構成され、図示を省略するファイヤ・ウォールを
介して、インターネットINとの間においてTCP/I
Pプロトコルによる通信を可能にしている。
The communication control device 25 is composed of a LAN adapter or the like and is connected to the Internet IN via TCP / I via a firewall (not shown).
It enables communication by the P protocol.

【0028】以下、図1に示す監視システムMSの主要
な動作について説明する。図3は、事前の学習を説明す
るフローチャートであり、図4〜図6は、図3のフロー
チャートをさらに具体的に説明するフローチャートであ
る。
The main operation of the monitoring system MS shown in FIG. 1 will be described below. FIG. 3 is a flowchart for explaining prior learning, and FIGS. 4 to 6 are flowcharts for more specifically explaining the flowchart of FIG.

【0029】監視システムMSでは、まず、CPU21
が、入力装置22からの指示に基づいて、記憶装置24
に記憶したデータから初期テンプレートを準備する(ス
テップS2)。初期テンプレートは、ユーザの判断を必
要としない固定的なものであり、典型的な猥褻オブジェ
クトを初期テンプレートとすることができる。具体的に
は、猥褻画像を構成すると考えられる胸、股、尻等の人
体各部の部分画像を予め初期テンプレートとして記憶装
置24に保存しておくことで初期テンプレートとしてい
る。なお、初期テンプレートをユーザ側で準備すること
もできる。この場合、予め猥褻画像を準備し、この猥褻
画像からオブジェクトを切り出し、これを初期画像とす
る。
In the monitoring system MS, first, the CPU 21
However, based on an instruction from the input device 22, the storage device 24
An initial template is prepared from the data stored in (step S2). The initial template is a fixed one that does not require the user's judgment, and a typical obscene object can be used as the initial template. Specifically, partial images of various parts of the human body, such as the chest, crotch, and hips, which are considered to constitute an obscene image, are stored in advance in the storage device 24 as the initial template to form the initial template. The initial template may be prepared by the user. In this case, an obscene image is prepared in advance, an object is cut out from this obscene image, and this is used as an initial image.

【0030】次に、CPU21は、入力装置22からの
指示に基づいて、記憶装置24や通信制御装置25を介
して典型的な猥褻画像を含む複数の学習用サンプル画像
を取り込む(ステップS4)。なお、取り込まれる複数
の学習用サンプル画像は、一般的な猥褻画像のみを含む
ものではなく、一般的には猥褻と認められないような画
像まで含む多様な画像の集合体を構成する。
Next, the CPU 21 takes in a plurality of learning sample images including a typical obscene image via the storage device 24 and the communication control device 25 based on an instruction from the input device 22 (step S4). It should be noted that the plurality of sample images for learning that are captured do not include only general obscene images, but generally form a collection of various images including images that are not recognized as obscene.

【0031】次に、CPU21は、各学習用サンプル画
像から自動的に猥褻なオブジェクトを切り出すととも
に、この猥褻オブジェクトをユーザ判断を取り入れつつ
当初記憶している初期テンプレートに追加して記憶装置
24に保存することにより、テンプレートの修正を行う
(ステップS6)。このように、初期テンプレートを多
様な学習用サンプル画像とユーザ判断とを利用して修正
することで、国や地域、時代の変遷に適合する基準テン
プレートすなわち基準パターンを得ることができる。す
なわち、以上の工程により、ユーザ側の基準で猥褻と認
める画像を検出するための基本的な基準テンプレート
(猥褻画像に寄与するものを部品化した画像データ)を
学習・準備することができる。
Next, the CPU 21 automatically cuts out an obscene object from each learning sample image, adds this obscene object to the initially stored initial template while taking user judgment, and saves it in the storage device 24. By doing so, the template is corrected (step S6). In this way, by correcting the initial template using various learning sample images and user judgments, it is possible to obtain a reference template, that is, a reference pattern, which matches the transition of the country, region, or era. That is, through the above steps, a basic reference template for detecting an image recognized as obscene by the user's reference.
It is possible to learn and prepare (image data that is a component that contributes to an obscene image).

【0032】なお、上記ステップS4、S6は、複数回
繰返すことができる。これにより、基準テンプレートを
複数回更新することができ、よりユーザの判断に近い判
定を可能にする基準テンプレートを得ることができる。
The steps S4 and S6 can be repeated a plurality of times. As a result, the reference template can be updated a plurality of times, and a reference template that enables a determination closer to the user's determination can be obtained.

【0033】また、上記ステップS4で、取り込まれる
複数の学習用サンプル画像を一般的な猥褻画像のみを含
むものとしておくこともできる。この場合、基準テンプ
レートを猥褻画像に関係するものに精度良く限定するこ
とができる。その一方、ユーザの判断が学習用サンプル
画像の範囲や傾向の影響を受ける場合が生じやすくなる
という問題もある。この解決策としては、学習用サンプ
ル画像の数を増やし、基準テンプレートの数を増やすこ
とが考えられる。
In addition, in step S4, the plurality of learning sample images to be taken in may include only general obscene images. In this case, the reference template can be accurately limited to those related to the obscene image. On the other hand, there is also a problem that the judgment of the user is likely to be influenced by the range and tendency of the learning sample image. One possible solution to this problem is to increase the number of sample images for learning and increase the number of reference templates.

【0034】図4は、図3のステップS6におけるテン
プレートの修正処理を説明するフローチャートである。
まず、CPU21は、記憶装置24等から学習用サンプ
ル画像のうち未評価の任意の特定画像を読み出す(ステ
ップS61)。
FIG. 4 is a flow chart for explaining the template correction processing in step S6 of FIG.
First, the CPU 21 reads out an unspecified arbitrary image out of the learning sample images from the storage device 24 or the like (step S61).

【0035】次に、CPU21は、図3のステップS2
で得た初期テンプレートを利用して、ステップS61で
読み出した特定画像の猥褻度を判定する(ステップS6
2)。後に詳細に説明するが、猥褻度の判定にあたって
は、対象となる特定画像からオブジェクトを自動的に切
り出し、切り出したオブジェクトと初期テンプレートと
の相関性すなわち関連性を数値化した猥褻度を出力す
る。
Next, the CPU 21 executes step S2 in FIG.
Using the initial template obtained in step S61, the degree of indecency of the specific image read in step S61 is determined (step S6).
2). As will be described in detail later, in determining the degree of indecency, the object is automatically cut out from the target specific image, and the degree of indecency that represents the correlation between the cut out object and the initial template, that is, the relation, is output.

【0036】次に、CPU21は、すべての学習用サン
プル画像について猥褻度を判定したか否かを判断し(ス
テップS63)、すべての学習用サンプル画像について
猥褻度評価が終了するまで、ステップS61、S62を
繰り返す。
Next, the CPU 21 determines whether or not the indecent degree has been determined for all the learning sample images (step S63), and the indecent degree evaluation for all the learning sample images is completed in step S61, Repeat S62.

【0037】次に、CPU21は、各学習用サンプル画
像について得た猥褻度にもとづいて、一群の学習用サン
プル画像について猥褻度のランキングを行い、表示装置
23にランキング結果を表示させる(ステップS6
4)。
Next, the CPU 21 ranks the obscenity of the group of learning sample images based on the obscenity obtained for each learning sample image, and displays the ranking result on the display device 23 (step S6).
4).

【0038】次に、CPU21は、各学習用サンプル画
像の猥褻度ランキングに際して得られたワースト・オブ
ジクトのリストを作成し、表示装置23にそのリストや
対応オブジェクトを表示させる(ステップS65)。
Next, the CPU 21 creates a list of the worst objects obtained in the obscenity ranking of each learning sample image, and displays the list and the corresponding objects on the display device 23 (step S65).

【0039】その後、CPU21は、ランキング上位と
判定された猥褻画像に対応するワースト・オブジェクト
を、初期テンプレートを構成するオブジェクトと入れ替
え、基準テンプレートとして記憶装置24に保存する
(ステップS66)。例えば、初期テンプレートが10
であり、ワースト・オブジェクトを5つ追加する場合、
初期テンプレートは残り5つとなる。なお、初期テンプ
レートには順位が付してあり、ワースト・オブジェクト
の追加に際して削除される初期テンプレートは順位の下
のものとなっている。
After that, the CPU 21 replaces the worst object corresponding to the obscene image determined to be in the higher ranking with the object forming the initial template and stores it in the storage device 24 as the reference template (step S66). For example, if the initial template is 10
And if you add 5 worst objects,
There are 5 remaining initial templates. Note that the initial templates are ranked, and the initial templates that are deleted when the worst object is added are below the ranking.

【0040】次に、CPU21は、表示装置23を介し
て、ユーザに対しランキングと関係なく全学習用サンプ
ル画像から特に猥褻と認めるものを適宜選択させる(ス
テップS67)。具体的には、入力装置22及び表示装
置23を利用して、ユーザが、ランキング表示された学
習用サンプル画像から自己の判断で猥褻と考えるものを
例えば上位5つ選択する。
Next, the CPU 21 appropriately causes the user to select, through the display device 23, a sample image for all learning, which is recognized as obscene, regardless of the ranking (step S67). Specifically, using the input device 22 and the display device 23, the user selects, for example, the top five items that are considered to be obscene in his / her own judgment from the learning sample images displayed in the ranking.

【0041】ユーザがステップS67で猥褻画像を選択
した場合、CPU21は、選択された猥褻画像に対応す
るオブジェクトを基本テンプレートを構成するオブジェ
クトに追加或いは入れ替えて、基準テンプレートとして
記憶装置24に再保存する(ステップS68)。例え
ば、ステップS66で初期テンプレートを更新した基準
プレートが10であれば、このステップS68で猥褻画
像を構成するオブジェクトを5つ追加することになる。
When the user selects the obscene image in step S67, the CPU 21 adds or replaces the object corresponding to the selected obscene image with the object forming the basic template and re-saves it in the storage device 24 as the reference template. (Step S68). For example, if the number of reference plates for which the initial template has been updated in step S66 is 10, five objects that make up an obscene image will be added in step S68.

【0042】ユーザがステップS67で猥褻画像を選択
しなかった場合、CPU21は、ステップS66で得た
基準テンプレートをそのまま最終的な基準テンプレート
として保存し、処理を終了する。
When the user does not select an obscene image in step S67, the CPU 21 saves the reference template obtained in step S66 as it is as a final reference template, and ends the process.

【0043】図5は、図4のステップS62における猥
褻度判定の処理を説明するフローチャートである。ま
ず、CPU21は、判定の対象となる特定画像からオブ
ジェクトを自動的に切り出す(ステップS621)。オ
ブジェクトの切出に際しては、公知の各種技術を用いる
ことができる。例えば、「従来技術」の欄で引用した公
報に開示のように、対象画像を階調化したエッジ画像を
取り出し、階調の低いエッジ画像から連続的に階調が増
加する領域を拡大統合することによってオブジェクトを
切り出すことができる。
FIG. 5 is a flow chart for explaining the indecency degree determination processing in step S62 of FIG. First, the CPU 21 automatically cuts out an object from the specific image to be determined (step S621). Various publicly known techniques can be used to cut out the object. For example, as disclosed in the publication cited in the column of "Prior Art", an edge image in which a target image is gradation is taken out, and an area in which the gradation is continuously increased is integrated from a low-gradation edge image. Objects can be cut out by

【0044】次に、CPU21は、ステップS621で
得たオブジェクトから無意味なオブジェクトを除去する
(ステップS622)。具体的には、小さなオブジェク
トや背景を構成すると考えられるオブジェクトが、検出
された一群のオブジェクトから除去される。例えば、オ
ブジェクトの専有面積比が所定のしきい値以下の場合
や、専有面積比が所定のしきい値以上であっても画像の
隅部分に偏って検出されたオブジェクトは、微小オブジ
ェクトや背景オブジェクトと判断され、処理速度向上の
ために判定に利用しない。
Next, the CPU 21 removes meaningless objects from the objects obtained in step S621 (step S622). Specifically, small objects or objects that are considered to make up the background are removed from the set of detected objects. For example, if the occupied area ratio of an object is less than or equal to a predetermined threshold value, or if the occupied area ratio is greater than or equal to a predetermined threshold value, the object detected biased to the corner portion of the image is Therefore, it is not used for the determination to improve the processing speed.

【0045】次に、CPU21は、ステップS622で
残った各オブジェクトに付いて、オブジェクト特性を計
算する(ステップS623)。このオブジェクト特性
は、色、形状、テクスチャ、サイズ等の各種パラメータ
からなる多次元ベクトルとして表現される。なお、形状
に関しては、回転角度を要素として含まないものとする
ことができる。これにより、男性や女性の肉体の一部で
ある対象物の姿勢等の要素がオブジェクト特性に含まれ
ないようにすることができる。
Next, the CPU 21 calculates the object characteristics for each of the objects remaining in step S622 (step S623). This object characteristic is expressed as a multidimensional vector composed of various parameters such as color, shape, texture, size and the like. Note that the shape may not include the rotation angle as an element. As a result, it is possible to prevent elements such as the posture of an object that is a part of the body of a male or a female from being included in the object characteristics.

【0046】次に、CPU21は、ステップS623で
特性を算出した各オブジェクトについて、全基準テンプ
レートとの相関をとりつつ類似性の総合評価を行うこと
により、画像全体としての猥褻度を計算する(ステップ
S624)。
Next, the CPU 21 calculates the degree of indecency as the entire image by performing a comprehensive evaluation of the similarity of each object whose characteristics are calculated in step S623 while taking a correlation with all the reference templates (step). S624).

【0047】図6は、図5のステップS624における
猥褻度判定の処理を説明するフローチャートである。ま
ず、CPU21は、オブジェクト特性を算出した特定オ
ブジェクトについて相関度を算出する(ステップS62
4a)。具体的には、この特定オブジェクトの特性と特
定の基準テンプレートの特性との差を各パラメータの重
み付けを考慮して線形的或いは非線形的に求め、相関度
すなわち類似性を総合的に評価する。なお、基準テンプ
レートのオブジェクト特性は、ステップS623で説明
したと同様の手法によって予め計算されている。
FIG. 6 is a flow chart for explaining the obscene degree determination processing in step S624 of FIG. First, the CPU 21 calculates the degree of correlation for the specific object for which the object characteristic has been calculated (step S62).
4a). Specifically, the difference between the characteristic of the specific object and the characteristic of the specific reference template is obtained linearly or non-linearly in consideration of the weighting of each parameter, and the degree of correlation, that is, the similarity is comprehensively evaluated. The object characteristic of the reference template is calculated in advance by the same method as described in step S623.

【0048】次に、CPU21は、ステップS624a
で計算の対象となった特定オブジェクトについて、すべ
ての基準テンプレートとの間で相関度の計算が終了した
か否かを判断する(ステップS624b)。
Next, the CPU 21 executes step S624a.
It is determined whether or not the calculation of the degree of correlation with all the reference templates has been completed for the specific object that was the target of calculation in step S624b.

【0049】ステップS624bで全ての基準テンプレ
ートについての相関度計算が終了していないと判断され
た場合、ステップS624aの相関度計算を、残った基
準テンプレートについて順次繰返す。
If it is determined in step S624b that the correlation degree calculation has not been completed for all reference templates, the correlation degree calculation in step S624a is sequentially repeated for the remaining reference templates.

【0050】ステップS624bで全ての基準テンプレ
ートについての相関度計算が終了していると判断された
場合、CPU21は、判定対象の画像から切り出して得
た全ての対象オブジェクトについて、相関度の計算が終
了したか否かを判断する(ステップS624c)。
When it is determined in step S624b that the correlation degree calculation has been completed for all the reference templates, the CPU 21 ends the correlation degree calculation for all target objects cut out from the image to be determined. It is determined whether or not (step S624c).

【0051】ステップS624bで全ての対象オブジェ
クトについての相関度計算が終了していないと判断され
た場合、ステップS624aの相関度計算を、残った対
象オブジェクトについて順次繰返す。
When it is determined in step S624b that the correlation degree calculation has not been completed for all target objects, the correlation degree calculation in step S624a is sequentially repeated for the remaining target objects.

【0052】ステップS624bで全ての対象オブジェ
クトについての相関度計算が終了していると判断された
場合、CPU21は、各対象オブジェクト毎に得た基準
オブジェクトに対する相関度を、サイズや配置を考慮し
て線形的或いは非線形的にさらに加算することにより、
関連性に関する平均的指数すなわち特定画像全体として
の猥褻性の程度を示す猥褻度を得る(ステップS624
d)。なお、非線形的な処理では、高い相関度のものが
存在すれば、単なる加算よりも高い猥褻度を示し、低い
相関度のものが存在すれば、単なる加算よりも低い猥褻
度を示すような処理、例えば相関度の数値を3乗や4乗
した値を加算するような評価を行うことができる。
When it is determined in step S624b that the correlation degree calculation has been completed for all target objects, the CPU 21 considers the correlation degree with respect to the reference object obtained for each target object in consideration of size and arrangement. By adding further linearly or non-linearly,
An average index relating to relevance, that is, an indecent degree indicating the degree of indecentness of the entire specific image is obtained (step S624).
d). In addition, in the non-linear processing, if there is a high degree of correlation, it shows a higher degree of obscenity than mere addition, and if there is a low correlation degree, a degree of obscenity lower than that of mere addition For example, it is possible to perform an evaluation in which a value obtained by raising the value of the degree of correlation to the third power or fourth power is added.

【0053】図7は、WEBサイトの監視を説明するフ
ローチャートである。まず、CPU21は、通信制御装
置25を介して適当なWEBサイトに自動的に接続する
(ステップS11)。
FIG. 7 is a flow chart for explaining the monitoring of the WEB site. First, the CPU 21 automatically connects to an appropriate WEB site via the communication control device 25 (step S11).

【0054】次に、CPU21は、通信制御装置25を
介して上記WEBサイトのホームページの画像データ
(すなわち検査画像)をダウンロードし、画像ファイル
を記憶装置24に保存する(ステップS12)。画像フ
ァイルは、WEBサイト単位で収集することができ、あ
る既定数のホームページの画像データを一括して収集す
ることもできる。例えば、特定のWEBサイトに関して
ルートディレクトリを定め、それ以下からjpg、gif等の
イメージファイルのフルパスを記録したイメージファイ
ルの一覧表を作成し、記憶装置24に設けた特定ディレ
クトリに統一したファイル形式で格納することができ
る。
Next, the CPU 21 downloads the image data of the home page of the WEB site (that is, the inspection image) via the communication control device 25, and saves the image file in the storage device 24 (step S12). The image files can be collected on a WEB site basis, and it is also possible to collectively collect image data of a predetermined number of home pages. For example, a root directory is set for a specific WEB site, a list of image files in which the full paths of image files such as jpg and gif are recorded is created from the root directory, and a file format unified in the specific directory provided in the storage device 24 is created. Can be stored.

【0055】次に、CPU21は、図3のステップS6
で得た基準テンプレートを利用して、画像ファイルにつ
いて猥褻度を判定する(ステップS13)。猥褻度の判
定は、図5に示すものとほぼ同様であるが、単一ではな
く多数の画像ファイルについて同様の処理で猥褻度を判
定する点が異なる。
Next, the CPU 21 executes step S6 of FIG.
The indecency degree of the image file is judged using the reference template obtained in step S13. The determination of the degree of indecentness is almost the same as that shown in FIG. 5, except that the degree of indecentness is determined by a similar process for a large number of image files instead of a single image.

【0056】次に、CPU21は、これら画像ファイル
中に猥褻画像が存在するか否かを判断する(ステップS
14)。具体的には、各画像ファイルに関する猥褻度が
あるしきい値を超えたか否かを判断し、いずれかの画像
ファイルで猥褻度が所定のしきい値を超えていれば、猥
褻画像が存在すると判断する。
Next, the CPU 21 determines whether or not an obscene image exists in these image files (step S).
14). Specifically, it is determined whether the obscenity degree for each image file exceeds a certain threshold value, and if the obscenity degree exceeds a predetermined threshold value in any of the image files, an obscene image is present. to decide.

【0057】ステップS14で猥褻画像を検出したと判
断した場合、CPU21は、表示装置23に猥褻画像の
検出を警告表示する(ステップS15)。この際、CP
U21は、検出した猥褻画像をサムネールやファイルリ
ストとして、WEBサイトのアドレス等とともに表示装
置23に表示させることができ、これらの表示情報を記
憶装置24に保存する。この結果は、例えば離れた場所
で別のコンピュータシステムを操作する管理者にメール
等の手段を利用して自動的に通報される。
When it is determined in step S14 that an obscene image is detected, the CPU 21 displays a warning about the detection of the obscene image on the display device 23 (step S15). At this time, CP
The U21 can display the detected obscene image as a thumbnail or a file list on the display device 23 together with the address of the WEB site, and saves the display information in the storage device 24. This result is automatically notified to an administrator who operates another computer system at a remote place by means of mail or the like.

【0058】次に、CPU21は、監視対象のWEBサ
イトの全てについて猥褻度判定が終了したか否かを判断
し、全ての対象WEBサイトについて猥褻度判定が終了
していないと判断した場合、ステップS11〜S15の
処理を繰返す。
Next, the CPU 21 determines whether or not the indecentness determination has been completed for all of the monitored WEB sites, and if it is determined that the indecentness has not been completed for all the target WEB sites, The processes of S11 to S15 are repeated.

【0059】以上により、監視対象のWEBサイトに猥
褻な画像が含まれるか否かを自動的に監視することがで
きる。この際、本実施形態の方法によれば、猥褻画像を
構成する対象の姿勢や背景の影響がキャンセルされ、高
い検出精度を得ることができる。
As described above, it is possible to automatically monitor whether the WEB site to be monitored contains an obscene image. At this time, according to the method of the present embodiment, the influence of the posture and the background of the object forming the obscene image is canceled, and high detection accuracy can be obtained.

【0060】現在まで、インターネット上で公開されて
いる画像が猥褻画像であるかどうかは、人間の肉眼によ
って判断されている。これは、大変な労力のかかる作業
であり、日々に変わるインターネットのコンテンツのチ
ェックには限界がある。安心してネットサーフィンした
いユーザーのために、健全なサービスの提供を目指すイ
ンターネットコンテンツ業者にとって、肉眼作業以外の
手段で猥褻画像を自動的に検出できる技術の開発が急務
になって来ている。最近では、未成年のユーザーを含む
一般コンシューマ向けにIPS(インターネット・プロ
バイダー・サービス)を提供する事業業者にとって、猥
褻画像に対するチェックが義務つけられている。本実施
形態の監視システムMSは、従来の肉眼による識別方法
に代わるものであり、コンピュータによるWEBサイト
上における猥褻画像の自動検出が可能になる。すなわ
ち、本監視システムMSは、従来の人間の肉眼による判
断しかできなかった猥褻画像の識別を、コンピュータに
よる自動検出、自動認識として実現することができる。
これにより、大変な労力とコストを削減でき、インター
ネットコンテンツの管理、監視の自動化に大きく貢献す
ることができる。また、画像コンテンツの管理、監視の
自動化により、一層合理的で低コスト、柔軟性を持つシ
ステムが構築できる。さらに、IPS業者にとっては、
猥褻画像の放任による行政指導や営業停止の処分を受け
る可能性も一段少なくなるという利益が生じる。
Until now, whether or not an image published on the Internet is an obscene image has been judged by the human naked eye. This is a very labor-intensive task, and there is a limit to the daily checking of Internet contents. For users who want to provide safe service for users who want to surf the internet with peace of mind, there is an urgent need to develop a technology that can automatically detect obscene images by means other than naked eye work. Recently, businesses that provide IPS (Internet Provider Service) to general consumers including minor users are obliged to check for obscene images. The monitoring system MS of the present embodiment is an alternative to the conventional naked eye identification method, and enables automatic detection of an obscene image on a WEB site by a computer. That is, the present monitoring system MS can realize the conventional obscure image identification, which could only be judged by the human naked eye, by automatic detection and automatic recognition by the computer.
This can save a great deal of labor and cost, and can greatly contribute to automation of Internet content management and monitoring. In addition, by automating the management and monitoring of image contents, a more rational, low cost, and flexible system can be constructed. Furthermore, for IPS providers,
There is a benefit that the possibility of being subject to administrative guidance and the disposition of business suspension due to the liberation of obscene images is further reduced.

【0061】図8は、図3〜図7に示す動作におけるデ
ータの流れを視覚的に説明する図であり、図8(a)
は、監視システムMSの事前学習処理を示し、図8
(b)は、監視システムMSのホームページ監視処理を
示す。
FIG. 8 is a diagram for visually explaining the flow of data in the operations shown in FIGS. 3 to 7, and FIG.
8 shows a pre-learning process of the monitoring system MS, and FIG.
(B) shows the homepage monitoring process of the monitoring system MS.

【0062】図8(a)に示す事前学習処理では、自動
学習部が、学習用サンプル画像を初期テンプレートを利
用して猥褻画像と非猥褻画像とに分類し、その結果をユ
ーザー判断で修正することによって、基準テンプレート
を得る。
In the pre-learning process shown in FIG. 8A, the automatic learning unit classifies the learning sample image into the obscene image and the non-obscene image using the initial template, and corrects the result according to the user's judgment. To obtain a reference template.

【0063】図8(b)に示すホームページ監視処理で
は、自動判定部が、図8(a)で得た基準テンプレート
に基づいて、監視対象画像を自動的に猥褻画像と非猥褻
画像とに分別する。
In the homepage monitoring process shown in FIG. 8B, the automatic determination unit automatically classifies the monitoring target image into an obscene image and a non-obscene image based on the reference template obtained in FIG. 8A. To do.

【0064】なお、上記実施形態では、WEBサイトに
おいて猥褻画像を検出したが、それ以外のネットワー
ク、例えば社内のコンピュータネットワーク等におい
て、猥褻画像ファイルが存在すれば、これを簡易・確実
に検出することもできる。
In the above embodiment, an obscene image is detected on the WEB site. However, if an obscene image file exists in a network other than that, such as an in-house computer network, it can be detected easily and reliably. You can also

【0065】〔第2実施形態〕第2実施形態に係る画像
認識装置び方法は、第1実施形態の装置び方法を肖像切
り出しのために変形したものである。
[Second Embodiment] The image recognition apparatus and method according to the second embodiment is a modification of the apparatus and method of the first embodiment for extracting a portrait.

【0066】事前学習処理は、基本的に第1実施形態の
ものと同様である。したがって、全体的な処理として
は、図3と同様のものが行われ、図4に対応する処理と
して図9に示す処理が行われ、図5に対応する処理とし
て図10に示す処理が行われ、図6に対応する処理とし
て図11に示す処理が行われる。
The pre-learning process is basically the same as that of the first embodiment. Therefore, as the overall processing, the same processing as in FIG. 3 is performed, the processing shown in FIG. 9 is performed as the processing corresponding to FIG. 4, and the processing shown in FIG. 10 is performed as the processing corresponding to FIG. The process shown in FIG. 11 is performed as the process corresponding to FIG.

【0067】なお、肖像の初期テンプレートは、肖像か
ら適宜切り出したオブジェクトとすることができ、顔、
首、髪の毛等を含む。このように、髪の毛も顔画像のテ
ンプレートに含めるのは、実際に使用される顔写真が髪
の毛も含むためである。学習用サンプル画像は、例えば
人物の正面スタイルの顔写真とすることができ、女性、
男性、髪の毛の薄い又は濃い等、典型的なものについて
何パターンかの画像を用意する。
The initial template of the portrait can be an object appropriately cut out from the portrait, and the face,
Including neck and hair. In this way, the reason why hair is included in the facial image template is that the actually used facial photograph also includes hair. The sample image for learning can be, for example, a frontal portrait of a person, a woman,
Prepare some patterns of images for typical things such as men, light or dark hair.

【0068】また、学習用サンプル画像のランキング後
の画像再追加に際しては、切り出したい肖像の性別、民
族等を考慮したものとすることができる。また、テンプ
レートの修正によって得られる基準テンプレートは、一
枚の学習サンプル画像から得られる一群のオブジェクト
(例えば、顔、首を含めた皮膚色オブジェクト、髪の毛
オブジェクト)及びこれらの位置関係を組み合わせた複
合的なものとなっている。このような基準テンプレート
を構成するオブジェクトの輪郭は、場合によって手動で
調整することもできる。結果的に得られた複数枚の複合
的な基準テンプレートは、肖像の画像すなわち顔画像オ
ブジェクトの自動識別及び切り出しの際に使用される。
When re-adding the learning sample images after ranking, the sex, ethnicity, etc. of the portrait to be cut out can be taken into consideration. In addition, the reference template obtained by modifying the template is a group of objects (for example, a skin color object including a face and a neck, a hair object) obtained from one learning sample image, and a complex combination of these positional relationships. It has become. In some cases, the contours of the objects constituting such a reference template can be manually adjusted. The resulting composite reference templates are used in automatic identification and segmentation of portrait images, i.e. facial image objects.

【0069】図12は、肖像の切り出しを説明するフロ
ーチャートである。まず、CPU21は、WEBサイト
や記憶装置24中の画像データを読み出す(ステップS
201)。
FIG. 12 is a flow chart for explaining the cutout of a portrait. First, the CPU 21 reads the image data in the WEB site or the storage device 24 (step S
201).

【0070】次に、CPU21は、切り出しの処理対象
範囲の選択に関する処理を行う(ステップS202)。
具体的には、画像データに対応するプレビュー画像を表
示装置23に表示させる。このプレビュー画像は、何段
階かで拡大・縮小表示可能であり、適当なツールを用い
てプレビュー画像中で範囲選択を行うことができる。こ
の際、CPU21は、選択範囲や原画像が一定サイズ以
下の場合、画質が良くない旨の警告を表示装置23に行
わせる。
Next, the CPU 21 carries out a process relating to the selection of the processing target range for clipping (step S202).
Specifically, the preview image corresponding to the image data is displayed on the display device 23. This preview image can be enlarged / reduced in several stages, and the range can be selected in the preview image using an appropriate tool. At this time, the CPU 21 causes the display device 23 to warn that the image quality is not good when the selection range and the original image are smaller than a certain size.

【0071】次に、CPU21は、対象画像のサイズを
チェックする(ステップS203)。対象画像のサイズ
が一定値を超えていなければ、そのまま原画像で以後の
処理を行う。対象画像のサイズが一定値を超えている場
合、対象画像のサイズを変更しないで後の処理を行う
超高解像度モードと、対象画像のサイズを縮小する一
般モードとをオペレータに適宜選択させる。
Next, the CPU 21 checks the size of the target image (step S203). If the size of the target image does not exceed the predetermined value, the subsequent processing is performed on the original image as it is. When the size of the target image exceeds a certain value, the operator is made to appropriately select the ultra-high resolution mode in which the subsequent processing is performed without changing the size of the target image and the general mode in which the size of the target image is reduced.

【0072】次に、CPU21は、図9の処理で得た基
準テンプレートを利用して、画像ファイルから得た対象
画像について肖像度を判定する(ステップS204)。
肖像度の判定は、図10に示すものとほぼ同様である。
Next, the CPU 21 determines the portrait degree of the target image obtained from the image file by using the reference template obtained in the process of FIG. 9 (step S204).
The determination of the portrait degree is almost the same as that shown in FIG.

【0073】次に、CPU21は、これら対象画像中に
肖像が存在するか否かを判断する(ステップS20
5)。具体的には、対象画像について得た肖像度がある
しきい値を超えたか否かや、オブジェクトの配置的要素
等を判断し、これらの肖像度等が所定の基準を満たせ
ば、肖像が存在すると判断する。
Next, the CPU 21 determines whether or not there is a portrait in these target images (step S20).
5). Specifically, whether or not the portrait degree obtained for the target image exceeds a certain threshold value, the layout element of the object, etc. are judged, and if the portrait degree satisfies a predetermined criterion, the portrait exists. Then decide.

【0074】肖像度の算出及び肖像の存否判断に際して
は、切り出したオブジェクトについて、相関度すなわち
類似度が最も大きくなる基準テンプレートが、顔、首を
含めた皮膚色のテンプレートオブジェクトであれば、顔
面候補オブジェクトと認定する。また、類似度が最も大
きくなる基準テンプレートが、髪の毛のテンプレートオ
ブジェクトであれば、髪の毛候補オブジェクトと認定す
る。この際、類似度が画像の中心領域からの距離より重
み付け修正される。すべての顔面候補オブジェクトにつ
いて、一つ以上の髪の毛候補オブジェクトと隣り合っ
て、隣り合う部分の輪郭線の合計が全体のうち所定の範
囲内の値でなければ、同顔面候補オブジェクトを肖像度
算出の対象から除外する。すべての髪の毛候補オブジェ
クトについても、同様な除外処理を行って、切り出した
オブジェクトの配置関係を考慮して自動的な弁別を行
う。このとき、顔面候補オブジェクトと髪の毛候補オブ
ジェクトとの数が必ずしも一致する必要はない。なお、
顔面候補オブジェクトの数が既定の最大値を超えている
なら、類似度の低いものとこれに隣接する髪の毛候補オ
ブジェクトを更に除外する。
In calculating the portrait degree and determining the presence / absence of the portrait, if the reference template having the largest correlation degree, that is, the similarity degree with respect to the clipped object is a skin-colored template object including the face and neck, a face candidate is selected. Qualify as an object. In addition, if the reference template having the highest degree of similarity is the template object for hair, it is recognized as a hair candidate object. At this time, the degree of similarity is weighted and corrected by the distance from the central region of the image. For all face candidate objects, adjacent to one or more hair candidate objects, if the total of the contour lines of the adjacent parts is not within a predetermined range of the whole, the face candidate objects are calculated for the portrait degree. Exclude from the target. The same exclusion processing is performed for all hair candidate objects, and automatic discrimination is performed in consideration of the arrangement relationship of the cut out objects. At this time, the numbers of face candidate objects and hair candidate objects do not necessarily match. In addition,
If the number of face candidate objects exceeds a predetermined maximum value, the one having a low degree of similarity and the hair candidate objects adjacent thereto are further excluded.

【0075】なお、上記説明は、頭部のオブジェクト抽
出を意味するが、衣服のオブジェクトも同様に抽出する
ことができる。この場合、顔面候補オブジェクトに隣接
して髪の毛候補オブジェクトの反対側に、所定の予想範
囲にあるオブジェクトを衣服候補オブジェクトとして抽
出する。この予想範囲は、例えば顔面候補オブジェクト
の大きさから算定するものとする。
Although the above description means the extraction of the object of the head, the object of the clothing can be similarly extracted. In this case, an object within a predetermined prediction range is extracted as a clothing candidate object on the opposite side of the hair candidate object adjacent to the face candidate object. This expected range is calculated from the size of the face candidate object, for example.

【0076】ステップS204で肖像を検出したと判断
した場合、CPU21は、表示装置23に肖像画から得
たオブジェクトを表示する(ステップS206)。この
際、すべての切り出しオブジェクトを表示することもで
きるが、対象画像の指定範囲にある一部オブジェクトの
みを表示することもできる。オブジェクトの表示方法
は、対象画像中のオブジェクトが存在する領域を楕円等
で範囲表示し、そこにあるオブジェクトを重なりなくツ
リー表示するものとすることができる。切り出したオブ
ジェクトのうち不要なものがあれば、上記のようなツリ
ー表示のオブジェクトのいずれかを入力装置22で指定
し、オブジェクトのグループから除去することができ
る。
When it is determined that the portrait is detected in step S204, the CPU 21 displays the object obtained from the portrait on the display device 23 (step S206). At this time, it is possible to display all the cut-out objects, but it is also possible to display only some of the objects in the specified range of the target image. As a method of displaying the objects, a region in which the object exists in the target image is displayed in a range of an ellipse and the objects in the region are displayed in a tree without overlapping. If any of the cut out objects is unnecessary, any one of the above tree-displayed objects can be designated by the input device 22 and removed from the group of objects.

【0077】次に、CPU21は、切り出したオブジェ
クトの輪郭修正を受け付ける処理を行う(ステップS2
07)。CPU21は、切り出したオブジェクトに対応
して、表示装置23に表示した対象画像のプレビューに
重ねて、鮮明な色彩で輪郭線を表示する。この輪郭線
は、入力装置22からの指示に基づいて修正することが
できる。例えば、輪郭線に沿って先鋭度が極値をとるポ
イントを一定密度以下で自動検出し、これらのポイント
を連結することによって輪郭線用の操作ハンドルを得
る。そして、隣接ポイント間には、入力装置22からの
指示に基づいて強制的にポイントを形成することがで
き、逆に不要なポイントは間引くこともできる。このよ
うにして得た操作ハンドルは、入力装置22を利用して
修正することができ、ユーザの判断を付加した適切な輪
郭検出が可能になる。
Next, the CPU 21 performs a process for accepting the contour correction of the cut out object (step S2).
07). The CPU 21 overlays the preview of the target image displayed on the display device 23 and displays the contour line in a clear color corresponding to the cut-out object. This contour line can be modified based on an instruction from the input device 22. For example, points along which the sharpness has an extreme value are automatically detected at a certain density or less, and these points are connected to obtain an operation handle for the contour line. Then, it is possible to forcibly form points between adjacent points based on an instruction from the input device 22, and conversely, unnecessary points can be thinned out. The operation handle obtained in this way can be corrected by using the input device 22, and appropriate contour detection can be performed with the user's judgment added.

【0078】次に、CPU21は、輪郭を決定したオブ
ジェクトを幾何的に切り出し、切り出した画像を記憶装
置24に保存する処理を行う(ステップS208)。オ
ブジェクトは、上記のようにして得た輪郭に沿って切り
出すこともできるが、任意の矩形領域、楕円領域、円形
領域内に輪郭が収まるような画像として切り抜くことが
できる。
Next, the CPU 21 performs a process of geometrically cutting out the contour-determined object and saving the cut-out image in the storage device 24 (step S208). The object can be cut out along the contour obtained as described above, but can be cut out as an image such that the contour fits within an arbitrary rectangular area, elliptical area, or circular area.

【0079】以上により、適当な画像ファイルから肖像
を自動的に簡易に切り出して保存、蓄積することができ
る。このようにして得た肖像ファイルは、携帯電話やパ
ソコン間で行われる電子メールに顔写真ファイルとして
添付することができる。また、このような肖像ファイル
は、各種画像作成を簡易なものとする。例えば、記念用
の顔写真の寄せ書き、顔写真のシール等の多様な用途
で、上記のような肖像ファイルが活かされる。
As described above, it is possible to automatically and simply cut out a portrait from an appropriate image file and save and store it. The portrait file obtained in this way can be attached as a facial photograph file to an email sent between a mobile phone and a personal computer. In addition, such a portrait file simplifies the creation of various images. For example, the portrait file as described above is used for various purposes such as a memorial face photo message and a face photo sticker.

【0080】以上実施形態に即して本発明を説明した
が、本発明は上記実施形態に限定されるものではない。
例えば上記実施形態では、猥褻画像や肖像画を自動検出
したが、他の抽象的な範疇の画像を自動検出する場合に
も、本発明の方法を適用することができる。
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments.
For example, in the above embodiment, an obscene image or a portrait is automatically detected, but the method of the present invention can also be applied to the case of automatically detecting an image in another abstract category.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1実施形態の画像認識装置及び方法が活用さ
れるネットワークシステムの全体構造を示す。
FIG. 1 shows an overall structure of a network system in which an image recognition device and method according to a first embodiment are utilized.

【図2】図1に示す監視システムの構造を概念的に説明
するブロック図である。
FIG. 2 is a block diagram conceptually explaining the structure of the monitoring system shown in FIG.

【図3】事前の学習を説明するフローチャートである。FIG. 3 is a flowchart illustrating prior learning.

【図4】事前の学習の一部を説明するフローチャートで
ある。
FIG. 4 is a flowchart illustrating a part of prior learning.

【図5】事前の学習の一部を説明するフローチャートで
ある。
FIG. 5 is a flowchart illustrating a part of prior learning.

【図6】事前の学習の一部を説明するフローチャートで
ある。
FIG. 6 is a flowchart illustrating a part of prior learning.

【図7】WEBサイトの監視を説明するフローチャート
である。
FIG. 7 is a flowchart illustrating monitoring of a WEB site.

【図8】(a)は、監視システムの事前学習処理を示
し、(b)は、監視システムのホームページ監視処理を
示す。
FIG. 8A shows a pre-learning process of the monitoring system, and FIG. 8B shows a homepage monitoring process of the monitoring system.

【図9】第2実施形態の画像認識装置における事前学習
の一部を説明するフローチャートである。
FIG. 9 is a flowchart illustrating a part of pre-learning in the image recognition device according to the second embodiment.

【図10】第2実施形態の画像認識装置における事前学
習の一部を説明するフローチャートである。
FIG. 10 is a flowchart illustrating a part of pre-learning in the image recognition device according to the second embodiment.

【図11】第2実施形態の画像認識装置における事前学
習の一部を説明するフローチャートである。
FIG. 11 is a flowchart illustrating a part of pre-learning in the image recognition device according to the second embodiment.

【図12】第2実施形態の画像認識装置における肖像画
像の切り出しを説明するフローチャートである。
FIG. 12 is a flowchart illustrating a cutout of a portrait image in the image recognition apparatus according to the second embodiment.

【符号の説明】[Explanation of symbols]

22 入力装置 23 表示装置 24 記憶装置 25 通信制御装置 21 CPU IN インターネット MS 監視システム 22 Input device 23 Display 24 storage 25 Communication control device 21 CPU IN Internet MS monitoring system

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 記憶した複数の基準パターンと、学習用
画像中から抽出したオブジェクトパターンとを比較し
て、前記基準パターンと特定のオブジェクトパターンと
の関連性が所定以上になった場合に、当該特定のオブジ
ェクトパターンを前記複数の基準パターンの内容に追加
する工程と、 検査画像中からオブジェクトパターンを抽出する工程
と、 前記検査画像中から抽出したオブジェクトパターンと前
記基準パターンとを比較する工程とを備える画像認識方
法。
1. When a plurality of stored reference patterns are compared with an object pattern extracted from a learning image, and when the relationship between the reference pattern and a specific object pattern exceeds a predetermined level, A step of adding a specific object pattern to the contents of the plurality of reference patterns; a step of extracting an object pattern from an inspection image; and a step of comparing the object pattern extracted from the inspection image with the reference pattern. Image recognition method provided.
【請求項2】 前記検査画像中から抽出したオブジェク
トパターンと前記基準パターンとの関連性が所定以上に
なった場合に、前記検査画像が所定の範疇に属する画像
であると判定する工程をさらに備えることを特徴とする
請求項1記載の画像認識方法。
2. The method further comprises the step of determining that the inspection image is an image belonging to a predetermined category when the relationship between the object pattern extracted from the inspection image and the reference pattern is a predetermined value or more. The image recognition method according to claim 1, wherein:
【請求項3】 前記学習用画像が前記所定の範疇に属す
る典型画像であると判断された場合に、当該特定のオブ
ジェクトパターンを前記複数の基準パターンの内容に追
加することを特徴とする請求項2記載の画像認識方法。
3. The specific object pattern is added to the contents of the plurality of reference patterns when it is determined that the learning image is a typical image belonging to the predetermined category. 2. The image recognition method described in 2.
【請求項4】 前記所定の範疇に属する追加画像中から
抽出したオブジェクトパターンが前記所定の範疇に属す
る原因となると判断された場合に、前記追加画像中から
抽出したオブジェクトパターンを前記複数の基準パター
ンの内容に追加する工程をさらに備えることを特徴とす
る請求項2記載の画像認識方法。
4. When the object pattern extracted from the additional image belonging to the predetermined category is determined to be a cause of belonging to the predetermined category, the object pattern extracted from the additional image is set to the plurality of reference patterns. The image recognition method according to claim 2, further comprising a step of adding to the contents of the above.
【請求項5】 前記検査画像中から抽出したオブジェク
トパターンと前記基準パターンとの類似性が所定以上に
なった場合に、前記検査画像中から抽出したオブジェク
トパターンを保存する工程をさらに備えることを特徴と
する請求項1記載の画像認識方法。
5. The method further comprises the step of storing the object pattern extracted from the inspection image when the similarity between the object pattern extracted from the inspection image and the reference pattern becomes a predetermined value or more. The image recognition method according to claim 1.
【請求項6】 前記検査画像中から抽出した複数のオブ
ジェクトパターン間の相対的な配置関係を要素として、
前記類似性を判断することを特徴とする請求項5記載の
画像認識方法。
6. An element is a relative positional relationship among a plurality of object patterns extracted from the inspection image,
The image recognition method according to claim 5, wherein the similarity is determined.
【請求項7】 記憶した複数の基準パターンと、学習用
画像中から抽出したオブジェクトパターンとを比較し
て、前記基準パターンと特定のオブジェクトパターンと
の関連性が所定以上になった場合に、当該特定のオブジ
ェクトパターンを前記複数の基準パターンの内容に追加
する手段と、 検査画像中からオブジェクトパターンを抽出する手段
と、 前記検査画像中から抽出したオブジェクトパターンと前
記基準パターンとを比較する手段とを備える画像認識装
置。
7. A plurality of stored reference patterns are compared with an object pattern extracted from a learning image, and when the relationship between the reference pattern and a specific object pattern exceeds a predetermined value, Means for adding a specific object pattern to the contents of the plurality of reference patterns; means for extracting an object pattern from the inspection image; and means for comparing the object pattern extracted from the inspection image with the reference pattern. An image recognition device provided.
【請求項8】 コンピュータを、 記憶した複数の基準パターンと、学習用画像中から抽出
したオブジェクトパターンとを比較して、前記基準パタ
ーンと特定のオブジェクトパターンとの関連性が所定以
上になった場合に、当該特定のオブジェクトパターンを
前記複数の基準パターンの内容に追加する手段と、 検査画像中からオブジェクトパターンを抽出する手段
と、 前記検査画像中から抽出したオブジェクトパターンと前
記基準パターンとを比較する手段として機能させるため
のコンピュータプログラム。
8. When a computer compares a plurality of stored reference patterns with an object pattern extracted from a learning image, and the relationship between the reference pattern and a specific object pattern exceeds a predetermined level. A means for adding the specific object pattern to the contents of the plurality of reference patterns; a means for extracting the object pattern from the inspection image; and a comparison between the object pattern extracted from the inspection image and the reference pattern. A computer program that functions as a means.
JP2001288574A 2001-09-21 2001-09-21 Image recognition method and apparatus Expired - Fee Related JP4643872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001288574A JP4643872B2 (en) 2001-09-21 2001-09-21 Image recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001288574A JP4643872B2 (en) 2001-09-21 2001-09-21 Image recognition method and apparatus

Publications (2)

Publication Number Publication Date
JP2003099778A true JP2003099778A (en) 2003-04-04
JP4643872B2 JP4643872B2 (en) 2011-03-02

Family

ID=19111198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001288574A Expired - Fee Related JP4643872B2 (en) 2001-09-21 2001-09-21 Image recognition method and apparatus

Country Status (1)

Country Link
JP (1) JP4643872B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107885A (en) * 2003-09-30 2005-04-21 Casio Comput Co Ltd Image classifying device and program
JP2011243199A (en) * 2010-05-14 2011-12-01 Palo Alto Research Center Inc Method for learning image anchor template for document classification
US8487956B2 (en) 2005-11-29 2013-07-16 Kyocera Corporation Communication terminal, system and display method to adaptively update a displayed image
JP2014164499A (en) * 2013-02-25 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> Image classification device and image classification program
CN104954741A (en) * 2015-05-29 2015-09-30 东方浩联(北京)智能科技有限公司 Tramcar on-load and no-load state detecting method and system based on deep-level self-learning network
US10061989B2 (en) 2015-03-30 2018-08-28 Nec Corporation Information transfer apparatus and method for image recognition

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305853A (en) * 1995-04-28 1996-11-22 Mitsubishi Electric Corp Method and device for object recognition and decision making based upon recognition
JP2000067164A (en) * 1998-08-26 2000-03-03 Nippon Telegr & Teleph Corp <Ntt> Method and device for pattern recognition and record medium where template generating program is recorded
JP2000123164A (en) * 1998-10-19 2000-04-28 Canon Inc Image processor and its method
JP2001160057A (en) * 1999-12-03 2001-06-12 Nippon Telegr & Teleph Corp <Ntt> Method for hierarchically classifying image and device for classifying and retrieving picture and recording medium with program for executing the method recorded thereon
JP2001195581A (en) * 2000-01-11 2001-07-19 Canon Inc Device, system and method for processing image, and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305853A (en) * 1995-04-28 1996-11-22 Mitsubishi Electric Corp Method and device for object recognition and decision making based upon recognition
JP2000067164A (en) * 1998-08-26 2000-03-03 Nippon Telegr & Teleph Corp <Ntt> Method and device for pattern recognition and record medium where template generating program is recorded
JP2000123164A (en) * 1998-10-19 2000-04-28 Canon Inc Image processor and its method
JP2001160057A (en) * 1999-12-03 2001-06-12 Nippon Telegr & Teleph Corp <Ntt> Method for hierarchically classifying image and device for classifying and retrieving picture and recording medium with program for executing the method recorded thereon
JP2001195581A (en) * 2000-01-11 2001-07-19 Canon Inc Device, system and method for processing image, and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107885A (en) * 2003-09-30 2005-04-21 Casio Comput Co Ltd Image classifying device and program
US8487956B2 (en) 2005-11-29 2013-07-16 Kyocera Corporation Communication terminal, system and display method to adaptively update a displayed image
JP2011243199A (en) * 2010-05-14 2011-12-01 Palo Alto Research Center Inc Method for learning image anchor template for document classification
JP2014164499A (en) * 2013-02-25 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> Image classification device and image classification program
US10061989B2 (en) 2015-03-30 2018-08-28 Nec Corporation Information transfer apparatus and method for image recognition
CN104954741A (en) * 2015-05-29 2015-09-30 东方浩联(北京)智能科技有限公司 Tramcar on-load and no-load state detecting method and system based on deep-level self-learning network
CN104954741B (en) * 2015-05-29 2019-01-04 东方浩联(北京)智能科技有限公司 Profound self-teaching network implementations mine car sky expires the detection method and system of state

Also Published As

Publication number Publication date
JP4643872B2 (en) 2011-03-02

Similar Documents

Publication Publication Date Title
US8244731B2 (en) Method and system for displaying and processing electronic file list
US6690828B2 (en) Method for representing and comparing digital images
US6912550B2 (en) File classification management system and method used in operating systems
US20090019010A1 (en) Document Search Device, Imaging Forming Apparatus, and Document Search System
US8290962B1 (en) Determining the relationship between source code bases
JP2009539152A (en) Content-based image readout
CA3022944A1 (en) System and method for displaying search results for a trademark query in an interactive graphical representation
KR20100114082A (en) Search based on document associations
JP2012118977A (en) Method and system for machine-learning based optimization and customization of document similarity calculation
US20110202543A1 (en) Optimising content based image retrieval
JP2005018678A (en) Form data input processing device, form data input processing method, and program
US20150286706A1 (en) Forensic system, forensic method, and forensic program
CN110852263B (en) Mobile phone photographing garbage classification recognition method based on artificial intelligence
JP4951373B2 (en) Image search apparatus, image search method, and computer program
JP4643872B2 (en) Image recognition method and apparatus
JP2006318375A (en) Face image retrieval apparatus and face image retrieval method
JP4556739B2 (en) Image management apparatus, image management method, and image management program
JP6025487B2 (en) Forensic analysis system, forensic analysis method, and forensic analysis program
CN113360305A (en) Computer equipment and abnormal operation detection method, device and storage medium thereof
US7996341B1 (en) Methods and systems for searching for color themes, suggesting color theme tags, and estimating tag descriptiveness
KR20190023503A (en) Image based patent search apparatus
CN112364199B (en) Picture searching system
CN112560849B (en) Neural network algorithm-based grammar segmentation method and system
JPH1115848A (en) Information sorting device, document information sorting method and recording medium to be used for execution of the method
JP4055976B2 (en) Document image processing method, document image processing apparatus, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101203

R150 Certificate of patent or registration of utility model

Ref document number: 4643872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees