JP3492990B2 - Image processing apparatus, image processing method, and recording medium - Google Patents

Image processing apparatus, image processing method, and recording medium

Info

Publication number
JP3492990B2
JP3492990B2 JP2000277124A JP2000277124A JP3492990B2 JP 3492990 B2 JP3492990 B2 JP 3492990B2 JP 2000277124 A JP2000277124 A JP 2000277124A JP 2000277124 A JP2000277124 A JP 2000277124A JP 3492990 B2 JP3492990 B2 JP 3492990B2
Authority
JP
Japan
Prior art keywords
division
image data
color
dividing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000277124A
Other languages
Japanese (ja)
Other versions
JP2002092610A (en
Inventor
知子 村上
良平 折原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000277124A priority Critical patent/JP3492990B2/en
Publication of JP2002092610A publication Critical patent/JP2002092610A/en
Application granted granted Critical
Publication of JP3492990B2 publication Critical patent/JP3492990B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像データから感
性的な特徴量を抽出する画像処理装置及び画像処理方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method for extracting a sensitive characteristic amount from image data.

【0002】[0002]

【従来の技術】近年、WWWを中心としたインターネッ
トの普及によって、様々なメディアの膨大な情報に誰で
も簡単にアクセスできる環境が整備されつつある。そう
した中、ユーザごとのものの見方や目的に応じた解釈に
基づき、情報を提供する技術が必要不可欠になってきて
いる。マルチメディア情報の中で代表的な画像というメ
ディアに対しては、類似画像の検索、感性に基づく画像
作成支援など、そのアプリケーションに対する期待は大
きく、研究成果は各産業界から注目を集めている。
2. Description of the Related Art In recent years, with the spread of the Internet centering on the WWW, an environment where anyone can easily access enormous amounts of information on various media is being established. Under such circumstances, a technology for providing information based on the perspective of each user and the interpretation according to the purpose has become indispensable. As for media, which is a typical image in multimedia information, there are great expectations for its applications such as searching for similar images and image creation support based on sensitivity, and research results have attracted attention from various industries.

【0003】画像に対する解釈においては、その性質
上、抽象的な表現に変換するモデル化が必須である。従
来、画像のモデル化の手法として、2値化、細線化、エ
ッジ処理などの画像処理技術を用いたオブジェクトの抽
出(文献1)、数学的形態学を用いた輪郭抽出(文献
2)が主流であった。近年では、これらに加えて、色
(文献3、4)、構図(文献5、6)、テクスチャ(文
献7、文献8)などの特徴量で表現する感性工学的なア
プローチ、画像を特徴づける索引語によってテキスト情
報へ変換する手法が試みられている。
In the interpretation of images, due to its nature, modeling that transforms into an abstract representation is essential. Conventionally, as a method of modeling an image, an object extraction using an image processing technique such as binarization, thinning, and edge processing (Reference 1) and contour extraction using mathematical morphology (Reference 2) are mainstream. Met. In recent years, in addition to these, in addition to these, a kansei engineering approach in which the amount of features such as color (references 3 and 4), composition (references 5 and 6), texture (references 7 and 8), and an index that characterizes images are used. A method of converting text information into words has been attempted.

【0004】なお、上記各文献は次の通りである。 文献1:「コンピュータビジョン、新技術コミュニケー
ションズ、1998」 文献2:「J.Serra: Image Analy
sis and Mathematical Morp
hology, Academic Press, L
ondon, 1982」 文献3:「諸原雄大他:テキスタイルデザイン画像にお
けるイメージカラーの選定法、情報処理学会論文誌、V
ol.36、No.2、pp.329−337、199
5」 文献4:「黒田章裕他:画像データベースの感性検索を
応用したデザインのための統合化システム、第9回NI
COGRAPH論文集、pp.113−122、199
3」 文献5:「山本英典他:色情報の空間分布を考慮した類
似画像検索、電子情報通信学会技術報告書、EID98
−171、IE98−162、1999−02」 文献6:「小林秀行他:特徴量を統合し人の感性に近づ
けた画像検索システム、電子情報通信学会技術報告書、
PRMU97−261、1998−03」 文献7:「間瀬茂他:モルフォロジーと画像解析
[1]、電子情報通信学会誌、Vol.74、No.
2、pp.166−174、1991」 文献8:「上田修功他:モルフォロジーと画像解析
[2]、電子情報通信学会誌、Vol.74、No.
3、pp.271−279、1991」
The above documents are as follows. Reference 1: “Computer Vision, New Technology Communications, 1998” Reference 2: “J. Serra: Image Analysis
sis and Mathematic Morp
holology, Academic Press, L
ondon, 1982] Reference 3: "Yuudai Morohara et al .: Selection of image color in textile design image, IPSJ Transactions, V"
ol. 36, No. 2, pp. 329-337, 199
5 ”Reference 4:“ Akihiro Kuroda et al .: Integrated System for Design Applying Kansei Search of Image Database, 9th NI
COGRAPH Proceedings, pp. 113-122, 199
3 ”Document 5:“ Hidenori Yamamoto et al .: Similar image retrieval considering spatial distribution of color information, IEICE technical report, EID98
-171, IE98-162, 1999-02 "Document 6:" Hideyuki Kobayashi et al .: Image Retrieval System Integrating Characteristic Values and Approaching Human Sensitivity, IEICE Technical Report, "
PRMU97-261, 1998-03 ”Document 7:“ Shigeru Mase et al .: Morphology and Image Analysis [1] ”, IEICE Journal, Vol.74, No.
2, pp. 166-174, 1991] Reference 8: "Shusuke Ueda et al .: Morphology and Image Analysis [2], The Institute of Electronics, Information and Communication Engineers, Vol.74, No.
3, pp. 271-279, 1991 "

【0005】[0005]

【発明が解決しようとする課題】以上で述べた従来の技
術には、以下のような問題がある。 ・オブジェクトの抽出に関しては、各処理工程やノイズ
除去作業の手間に対して、オブジェクト抽出が困難であ
る。 ・色、構図の抽出は、汎用的であるが、各画像に適した
柔軟なモデル化には至っていない。 ・テクスチャ解析は、処理目的、対象画像によっては有
効であるが、汎用的でない。 ・従来の手法においては、ユーザごとの見方や目的に応
じて画像を解釈できない。
The conventional techniques described above have the following problems. -Regarding object extraction, it is difficult to extract objects due to the time and effort of each processing step and noise removal work. -Extraction of colors and compositions is general, but flexible modeling suitable for each image has not been reached. -Texture analysis is effective depending on the processing purpose and target image, but it is not general purpose. -The conventional method cannot interpret an image according to each user's viewpoint and purpose.

【0006】すなわち、従来の画像処理技術によるモデ
ル化は、各処理工程やノイズ除去などの高精度、精密さ
が要求される作業とそれらにかかわる手間に対して、オ
ブジェクトの抽出が困難である。また、抽出するオブジ
ェクトは、画像から受ける印象を表現する特徴量ではな
く、人間の感性を具体化する要素としては不十分であ
る。
[0006] That is, in the modeling by the conventional image processing technique, it is difficult to extract an object for each processing step, work such as noise removal, which requires high accuracy and precision, and labor required for the work. Further, the extracted object is not a feature amount that expresses the impression received from the image, and is not sufficient as an element that embodies the human sense.

【0007】一方、色、構図などの特徴量で表現する感
性工学的なアプローチ、画像を特徴づける索引語による
モデル化手法は、画像から受ける印象を表現する要素と
して適当で、モデル化手法がいくつか紹介されている
が、各画像の特徴に適合した柔軟なモデル化は実現され
ていない。つまり、各画像に対応した、または利用目的
に適応した、柔軟なモデル化の枠組みはいまだに確立さ
れていない。さらに、それらの画像に特化したモデル化
を特徴づける切り口、観点を、後の利用のために保存す
る技術も確立されていない。
On the other hand, the kansei engineering approach of expressing with features such as color and composition, and the modeling method with index words that characterize the image are suitable as elements for expressing the impression received from the image. However, flexible modeling that matches the features of each image has not been realized. In other words, a flexible modeling framework corresponding to each image or adapted to the purpose of use has not yet been established. Furthermore, no technique has been established for preserving the cuts and viewpoints that characterize the modeling specialized for those images for later use.

【0008】本発明は、上記事情を考慮してなされたも
ので、画像データから感性的な特徴量を抽出する際に、
柔軟に目的、個人、状況などに適応させることが可能な
画像処理装置及び画像処理方法を提供することを目的と
する。
The present invention has been made in consideration of the above circumstances, and when extracting a sensible feature amount from image data,
An object of the present invention is to provide an image processing device and an image processing method that can be flexibly adapted to the purpose, individual, situation, and the like.

【0009】[0009]

【課題を解決するための手段】本発明は、画像データを
入力とし該画像データが表示されたときに持つ感性的な
表現内容を示す特徴量を抽出する画像処理装置であっ
て、画像データを入力する第1の入力手段と、入力され
た前記画像データを感性に関係する基準で分割する分割
処理を行って、前記特徴量として、該画像データを分割
する分割線の角度および位置を特定可能とする分割線情
報を抽出する抽出手段と、前記分割処理における、分割
方向についての分割順序に関する第1の制約条件と、各
分割方向に係る分割線につき許容される角度の範囲に関
する第2の制約条件とを示す制約条件情報を入力する第
2の入力手段とを備え、前記抽出手段は、前記第1及び
第2の制約条件の範囲内で、前記分割線情報を抽出する
ことを特徴とする。
SUMMARY OF THE INVENTION The present invention is an image processing apparatus for inputting image data and extracting a feature amount indicating the emotional expression content when the image data is displayed. It is possible to specify the angle and position of a dividing line that divides the image data as the feature amount by performing a dividing process that divides the input image data by a first input unit that inputs and the input image data on the basis of sensitivity. Extracting means for extracting the dividing line information, the first constraint condition regarding the dividing order in the dividing direction in the dividing process, and the second constraint regarding the range of the angle allowed for the dividing line in each dividing direction. And a second input unit for inputting constraint condition information indicating a condition, wherein the extracting unit extracts the dividing line information within the range of the first and second constraint conditions. .

【0010】[0010]

【0011】[0011]

【0012】[0012]

【0013】[0013]

【0014】なお、装置に係る本発明は方法に係る発明
としても成立し、方法に係る本発明は装置に係る発明と
しても成立する。また、装置または方法に係る本発明
は、コンピュータに当該発明に相当する手順を実行させ
るための(あるいはコンピュータを当該発明に相当する
手段として機能させるための、あるいはコンピュータに
当該発明に相当する機能を実現させるための)プログラ
ムを記録したコンピュータ読取り可能な記録媒体として
も成立する。
It should be noted that the present invention relating to the apparatus also holds as the invention relating to the method, and the present invention relating to the method also holds as the invention relating to the apparatus. Further, the present invention relating to an apparatus or a method is provided for causing a computer to execute a procedure corresponding to the present invention (or for causing a computer to function as means corresponding to the present invention, or for a computer to have a function corresponding to the present invention. It also holds as a computer-readable recording medium in which a program (for realizing it) is recorded.

【0015】本発明では、以下のような手段を用いる。 ・画像データに対し、色およびまたは構図に基づいたモ
デル化を行い、例えば画像のイメージカラーおよびまた
は構図情報を特徴量として抽出する。 ・各画像ごとに対応するパラメータおよびまたはモデル
化システム全体を操作するパラメータを設定し、これら
を操作して例えば画像のイメージカラーおよびまたは任
意の形状を持つ構図情報を特徴量として抽出する。 ・パラメータに基づいてモデル化された画像の特徴量を
保存する(パラメータ集合とともに保存してもよい)。
In the present invention, the following means are used. Image data is modeled based on color and / or composition, and image color and / or composition information of the image is extracted as a feature amount. Setting corresponding parameters for each image and / or parameters for operating the entire modeling system, and operating these to extract, for example, image color of the image and / or composition information having an arbitrary shape as a feature amount. Save the feature quantity of the image modeled based on the parameters (may be saved with the parameter set).

【0016】色のモデル化の方法では、例えば、次のよ
うな手法を用いることができる。画像中に出現する似た
ような色をひとつと考え、対象色数を絞り込み、各対象
色に対する目立つ度合いに基づいて使用色の中からイメ
ージカラーを決定する。色数絞り込みにおいては、2色
を似たような色と判断するための混色の閾値、限定する
色数をパラメータとすることができる。なお、色数絞り
込みの手法は、PA法やMCA法などの他手法でもかま
わない。また、イメージカラー選定においては、色の出
現領域の大きさと、誘目性の高さ、コントラスト感の高
さ、への比率を制約パラメータとして目立つ度合いの計
算をし、その要素となる誘目性の高さを求めるために、
色相、彩度、明度への比率を制約パラメータとすること
ができる。最終的なイメージカラーを決定するための選
択色数もパラメータとすることができる。
As the color modeling method, for example, the following method can be used. Considering one similar color appearing in the image as one, the number of target colors is narrowed down, and the image color is determined from the used colors based on the degree of conspicuity with respect to each target color. In narrowing down the number of colors, a threshold value of color mixture for determining two colors as similar colors and a limited number of colors can be used as parameters. The method for narrowing down the number of colors may be another method such as the PA method or the MCA method. Also, in image color selection, the size of the appearance area of the color and the ratio to the high attractiveness and the high contrast feeling are used as constraint parameters to calculate the degree of conspicuousness, and the high attractiveness that is the factor is calculated. To seek
Hue, saturation, and ratio to lightness can be used as constraint parameters. The number of colors selected to determine the final image color can also be a parameter.

【0017】構図に基づいたモデル化の方法では、例え
ば、次のような手法を用いることができる。直線による
領域分割を基本的な分割方法とし、それぞれの分割にお
いて、あらかじめ指定された制約のもとで自由に分割を
行い、分割条件を満たす間は再帰的にそれらの分割を繰
り返す。なお、直線だけでなく円や放射状の領域分割手
法も考えられるし、分割条件は、分割近傍領域の色平均
を比較するなどの他手法でもかまわない。直線の領域分
割においては、分割方向、位置を制約パラメータとする
ことができる。
In the modeling method based on the composition, for example, the following method can be used. Region segmentation by a straight line is the basic segmentation method, and each segment is freely segmented under pre-specified constraints, and those segments are recursively repeated as long as the segment conditions are satisfied. It should be noted that not only a straight line but also a circular or radial area dividing method is conceivable, and the dividing condition may be another method such as comparing the color averages of divided neighboring areas. In the linear area division, the division direction and the position can be used as constraint parameters.

【0018】本発明によれば、静止画像データの集合に
対して、各画像データを、色や構図に基づいてモデル化
する際に、様々なパラメータを調節することによって、
個々の画像データに対応した柔軟なモデル化を可能にす
る。また、それらのパラメータ集合を保存し、画像デー
タを特定の目的、個人、状況に適応させることも可能に
なる。
According to the present invention, when a set of still image data is modeled on the basis of color or composition, each image data is adjusted by adjusting various parameters.
It enables flexible modeling corresponding to individual image data. It is also possible to save those parameter sets and adapt the image data to a particular purpose, individual or situation.

【0019】[0019]

【発明の実施の形態】以下、図面を参照しながら発明の
実施の形態を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0020】本発明は、画像データを、モデル化におけ
る様々なパラメータを調節し、抽象的な表現を持つ特徴
量に変換するものであり、以下では、色に基づく特徴量
に変換する場合、および構図に基づく特徴量に変換する
場合を例にとって説明する。なお、本実施形態で例示す
る処理の具体例やパラメータの具体例や画像データの具
体例や処理結果の具体例などは一例であり、もちろん本
実施形態で例示するものに限定されるものではない。
The present invention adjusts various parameters in modeling and converts the image data into a feature amount having an abstract representation. In the following, in the case of converting into a color-based feature amount, and A case of converting into a feature amount based on composition will be described as an example. It should be noted that the specific example of the process, the specific example of the parameter, the specific example of the image data, the specific example of the processing result, and the like illustrated in the present embodiment are merely examples, and are not of course limited to those illustrated in the present embodiment. .

【0021】図1に、本実施形態の画像モデル化装置の
構成例を示す。
FIG. 1 shows an example of the configuration of the image modeling apparatus of this embodiment.

【0022】図1に示されるように、この画像モデル化
装置は、画像データ入力部1、パラメータ入力部2、カ
ラーリスト作成部3、登録色限定部4、目立つ度合い計
算部5、イメージカラー抽出部6、制約条件読み取り部
7、分割方向・位置決定部8、再帰的分割適用部9、領
域特徴量計算部10、抽出結果表示部11、データ記憶
部(図示せず)を備えている。
As shown in FIG. 1, this image modeling apparatus includes an image data input section 1, a parameter input section 2, a color list creating section 3, a registered color limiting section 4, a conspicuous degree calculating section 5, and an image color extracting section. It includes a unit 6, a constraint condition reading unit 7, a division direction / position determination unit 8, a recursive division application unit 9, a region feature amount calculation unit 10, an extraction result display unit 11, and a data storage unit (not shown).

【0023】データ記憶部は、入力された画像データ、
生成されたイメージカラー特徴量、入力されたパラメー
タ、入力された制約条件、生成された構図特徴量を記憶
するためのもので、例えばハードディスクや光ディス
ク、半導体メモリなどで構成される。データ記憶部は各
種データごとに別々の記憶装置によって構成されていて
もよいし、各種データの全部または一部が同じ記憶装置
に記憶されるように構成されていてもよい。
The data storage unit stores the input image data,
It stores the generated image color feature amount, the input parameter, the input constraint condition, and the generated composition feature amount, and is composed of, for example, a hard disk, an optical disc, a semiconductor memory, or the like. The data storage unit may be configured by a separate storage device for each type of data, or may be configured to store all or part of various types of data in the same storage device.

【0024】この画像モデル化装置は、ネットワークを
介して通信相手と情報をやり取りする機能を備えていて
もよい。
The image modeling device may have a function of exchanging information with a communication partner via a network.

【0025】この画像モデル化装置は、計算機上でソフ
トウェアを実行する形で実現することができる。この場
合に、必要に応じて、所望の機能を有するOSや、ドラ
イバソフト、パケット通信用ソフト、暗号ソフト等とい
ったソフトウェアが搭載される。また、この場合に、ユ
ーザからの情報の入力やユーザへの情報の呈示等のため
に、グラフィカル・ユーザ・インタフェース(GUI)
を用いると好ましい。
This image modeling device can be realized by executing software on a computer. In this case, an OS having a desired function, software such as driver software, packet communication software, encryption software, and the like are installed as needed. In addition, in this case, a graphical user interface (GUI) is used for inputting information from the user and presenting information to the user.
Is preferably used.

【0026】図2に、本画像モデル化装置の処理手順の
一例を示す。なお、図1の画像モデル化装置は、画像デ
ータを色に基づく特徴量に変換する機能と、画像データ
を構図に基づく特徴量に変換する機能とを有するもので
あるが、図2の手順例は、色に基づく特徴量への変換
(ステップS2〜S4)と、構図に基づく特徴量への変
換(ステップS5〜S7)を両方とも行うようにした場
合の例である。なお、色に基づく特徴量への変換と、構
図に基づく特徴量への変換とは、一方を先に他方を後に
行ってもよいし、所定の処理単位ずつ交互的に行っても
よいし、同時的あるいは並列的に処理してもよい。図3
に、図2のステップS2の処理すなわち色に基づくモデ
ル化におけるイメージカラーの抽出についての詳細な処
理手順の一例を示す。図4に、図2のステップS5の処
理すなわち構図に基づくモデル化における構図の切り出
しについての詳細な処理手順の一例を示す。
FIG. 2 shows an example of the processing procedure of the image modeling apparatus. The image modeling device in FIG. 1 has a function of converting image data into a feature amount based on color and a function of converting image data into a feature amount based on composition, but the procedure example of FIG. Is an example of a case in which both conversion into a feature amount based on color (steps S2 to S4) and conversion into a feature amount based on composition (steps S5 to S7) are performed. Note that the conversion to the feature amount based on the color and the conversion to the feature amount based on the composition may be performed one first and the other later, or may be performed alternately in predetermined processing units, You may process simultaneously or in parallel. Figure 3
FIG. 2 shows an example of a detailed processing procedure for image color extraction in the processing of step S2 in FIG. 2, that is, in color-based modeling. FIG. 4 shows an example of a detailed processing procedure for cutting out a composition in the processing of step S5 in FIG. 2, that is, modeling based on the composition.

【0027】まず、本画像モデル化装置では、画像デー
タ入力部1により、画像データ(12)が、入力される
(ステップS1)。なお、キーボード入力、ネットワー
クによるオンライン入力、情報伝達の媒体である磁気テ
ープあるいは磁気ディスクあるいは光ディスクなどから
の読み込み等、種々の入力形態が可能である(入力形態
を1種類に固定して構成してもよいし、入力形態を複数
のものから選択可能にするように構成してもよい)。
First, in this image modeling apparatus, the image data (12) is input by the image data input unit 1 (step S1). Various input forms are possible such as keyboard input, online input via a network, reading from a magnetic tape or a magnetic disk or an optical disk which is a medium for transmitting information (the input form is fixed to one type and is configured. The input form may be selected from a plurality of input forms).

【0028】画像データとしては、フィルムによる写真
をデジタル化したもの、デジタル写真、アナログVTR
の1フレームをデジタル化したもの、デジタルVTRの
1フレーム、CGデータ、手書きされた絵や図面をデジ
タル化したものなど、どのようなものであってもよい。
また、本実施形態では、画像データがカラー画像である
ことを想定しているが、もちろん白黒の画像データも色
に関する特徴量を持っており、白黒の画像データを処理
対象から排除するものではない。なお、本実施形態で
は、画像データ入力部1から既にデジタル化された画像
データを入力する場合を例にとって説明しているが、本
画像モデル化装置に、画像データのソースであって未だ
デジタル化されていないものを、デジタル化して取り込
む機能を設けてもよい。
As image data, a film photograph is digitized, a digital photograph, an analog VTR.
1 frame of the digital VTR, 1 frame of the digital VTR, CG data, digitalized hand-drawn picture or drawing, etc. may be used.
Further, in the present embodiment, it is assumed that the image data is a color image, but of course, the black and white image data also has a characteristic amount relating to color, and the black and white image data is not excluded from the processing target. . In the present embodiment, the case where the digitized image data is input from the image data input unit 1 has been described as an example, but the image modeling apparatus is the source of the image data and is still digitized. You may provide the function which digitizes and takes in what is not done.

【0029】図5に、画像データの一例を示す。この例
は、主に「海岸」と「(海岸沿いの)道路」と「(海岸
沿いの道路を走る)自動車」のカラー画像を含む画像デ
ータである。
FIG. 5 shows an example of image data. This example is image data mainly including color images of "coast", "road (along coast)", and "automobile (along road)".

【0030】画像データが入力されたならば、次に、イ
メージカラーの決定(ステップS2)と、構図の切り出
し(ステップS5)が行われる。
After the image data is input, the image color is determined (step S2) and the composition is cut out (step S5).

【0031】最初に、図3を参照しながら、イメージカ
ラーの決定(ステップS2)について説明する。
First, the determination of the image color (step S2) will be described with reference to FIG.

【0032】まず、パラメータ入力部2により、パラメ
ータ情報(14)が、キーボード入力あるいはネットワ
ークによるオンライン入力あるいは情報伝達の媒体であ
る磁気テープからの読み込みなどの所定の入力形態で、
入力される(ステップS11)。
First, the parameter input section 2 inputs the parameter information (14) in a predetermined input form such as keyboard input, online input via a network, or reading from a magnetic tape which is a medium of information transmission.
It is input (step S11).

【0033】図6に、パラメータ情報の一例を示す。パ
ラメータrは、混色の閾値であり、パラメータcは、限
定色数であり、パラメータv(s,t,u)は、誘目性
の高さの計算のための影響比率(色相、彩度、明度それ
ぞれへの影響比率)であり、パラメータm(e,f,
g)は、目立つ度合い計算のための影響比率(色の領域
の大きさ、誘目性の高さ、コントラスト感の高さそれぞ
れへの影響比率)であり、パラメータiは、指定色数で
ある。
FIG. 6 shows an example of parameter information. The parameter r is a threshold value of color mixture, the parameter c is a limited number of colors, and the parameter v (s, t, u) is an influence ratio (hue, saturation, lightness) for calculating the attractiveness. And the parameter m (e, f,
g) is an influence ratio for calculating the degree of conspicuity (the influence ratio on the size of the color area, the high attractiveness, and the high contrast feeling), and the parameter i is the specified number of colors.

【0034】次に、カラーリスト作成部3により、当該
入力画像データに対するカラーリストを作成する。
Next, the color list creating section 3 creates a color list for the input image data.

【0035】まず、カラーリスト作成部3は、図5に例
示したような画像データを、画素に分割し、各画素に対
応する色情報を読み込む処理を行う(ステップS1
2)。各色は、3原色R(赤)、G(緑)、B(青)、
各8ビット階調により表現される。これらの値を、既知
の座標変換式に基づきL*a*b*空間に変換する。
First, the color list creating section 3 divides the image data as shown in FIG. 5 into pixels, and reads the color information corresponding to each pixel (step S1).
2). Each color has three primary colors R (red), G (green), B (blue),
It is represented by each 8-bit gradation. These values are converted into the L * a * b * space based on a known coordinate conversion formula.

【0036】次に、カラーリスト作成部3は、L*a*
b*空間座標値で表現される登録色と、それらの各々に
ついて画素数を合計した出現数とで構成される、カラー
リストを作成する(ステップS13)。
Next, the color list creating section 3 uses L * a *.
A color list composed of registered colors represented by b * space coordinate values and the number of appearances obtained by summing the number of pixels for each of them is created (step S13).

【0037】ただし、本実施形態では、カラーリストを
作成する際に、L*a*b*空間に変換された後のベク
トルについて、単に同じものの個数の集計を取るのでは
なく、混色という処理を行うようにする。
However, in the present embodiment, when a color list is created, a process of color mixture is performed instead of simply collecting the same number of vectors after being converted into the L * a * b * space. Try to do it.

【0038】まず、入力画像データの各画素の色のL*
a*b*空間ベクトル値を1つ読み込んで、その3次元
ベクトル値と、その出現数=1を、カラーリストに登録
する。
First, L * of the color of each pixel of the input image data
One a * b * space vector value is read, and the three-dimensional vector value and the number of appearances = 1 are registered in the color list.

【0039】以降は、入力画像データの各画素の色のL
*a*b*空間ベクトル値について、未処理のものから
1つを読み込んで、新しく読み込んだ色のベクトル値
と、カラーリストにそれまでの処理で既に登録されてい
る登録色のベクトル値との、L*a*b*空間上のユー
クリッド距離(登録色が複数あるときは、その最小値)
を計算し、求めたユークリッド距離が、混色の閾値(パ
ラメータr)より大きければ、カラーリストに近い色が
ないと判断し、新しく読み込んだ色の3次元ベクトル値
と、その出現数=1を、カラーリストに登録する。一
方、求めたユークリッド距離が、混色の閾値(パラメー
タr)以下ならば、互いに近い色と判断し、後述するよ
うにして当該新しく読み込んだ色と当該ユークリッド距
離を与えた登録色について混色を行う。混色が行われた
場合、混色前の登録色の3次元ベクトル値とその出現数
は無効にし、その代わりに、混色後の色を登録色とし
て、その3次元ベクトル値と、その出現数=混色前の出
現数+1を、カラーリストに登録する。
After that, L of the color of each pixel of the input image data is set.
Regarding the * a * b * space vector values, one is read from the unprocessed one, and the vector value of the newly read color and the vector value of the registered color that has already been registered in the processing up to that point in the color list , Euclidean distance in L * a * b * space (when there are multiple registered colors, the minimum value)
If the calculated Euclidean distance is larger than the color mixture threshold (parameter r), it is determined that there is no color close to the color list, and the three-dimensional vector value of the newly read color and the number of appearances = 1 Register in the color list. On the other hand, if the calculated Euclidean distance is equal to or less than the color mixture threshold (parameter r), it is determined that the colors are close to each other, and the newly read color and the registered color having the Euclidean distance are mixed as described later. When color mixing is performed, the three-dimensional vector value of the registered color before the color mixing and its appearance number are invalidated, and instead, the color after the color mixing is set as the registered color, and the three-dimensional vector value and its appearance number = color mixture Register the previous number of appearances + 1 in the color list.

【0040】以上を、入力画像データの各画素の色のL
*a*b*空間ベクトル値の全てを読み込んで処理する
まで、繰り返し行う。
The above is the L of the color of each pixel of the input image data.
This is repeated until all the * a * b * space vector values are read and processed.

【0041】なお、入力画像データの各画素の色のL*
a*b*空間ベクトル値を1つずつ読み込む順番は、適
宜決めて構わない。また、上記では、登録色が複数ある
ときは、ユークリッド距離の最小値を計算するようにし
たが、各登録色とのユークリッド距離を計算している途
中で始めてユークリッド距離が混色の閾値以下になった
ときに、計算を打ち切って、そのときの登録色を採用す
るようにすることも可能である。また、上記では、入力
画像データの各画素の色のL*a*b*空間ベクトル値
の全てを読み込んでカラーリストを作成するものとした
が、入力画像データの所定の一部の画素の色のL*a*
b*空間ベクトル値の読み込んでカラーリストを作成す
るようにすることも可能である。
The color of each pixel of the input image data is L *
The order of reading the a * b * space vector values one by one may be appropriately determined. Further, in the above, when there are a plurality of registered colors, the minimum value of the Euclidean distance is calculated.However, the Euclidean distance becomes equal to or less than the threshold value of the color mixture only while the Euclidean distance with each registered color is being calculated. It is also possible to cancel the calculation when the color is changed and to adopt the registered color at that time. Further, in the above, the color list is created by reading all the L * a * b * space vector values of the color of each pixel of the input image data. L * a *
It is also possible to read the b * space vector value and create a color list.

【0042】ここで、混色方法について説明する。Here, the color mixing method will be described.

【0043】新たに読み込んだ色Aと混色する登録色B
の空間上の3次元座標ベクトルをそれぞれa、bとし、
色Aと色Bが混色された結果生成された色(混色後の新
たな登録色)Xの座標ベクトルをxとすると、xは、次
の色で定義される。 x=wA ・a+wB ・b ここで、 wA =NA ÷(NA +NB ) wB =NB ÷(NA +NB ) NA :色Aの出現数 NB :色Bの出現数 である。また、混色された結果生成された色Xの出現数
x は、 Nx =NA +NB である。ただし、本実施形態では、1つずつ色を読み込
んで処理するようにしているので、NA =1となる。
Registered color B mixed with newly read color A
Let a and b be three-dimensional coordinate vectors in the space of
When the coordinate vector of the color X (new registered color after color mixing) X generated as a result of the color A and the color B being mixed is x, x is defined by the following color. x → = w A · a → + w B · b → here, w A = N A ÷ ( N A + N B) w B = N B ÷ (N A + N B) N A: the number of occurrences N B of color A : The number of appearances of color B. Further, the number of occurrences N x of the generated result of the mixing color X is N x = N A + N B . However, in the present embodiment, N A = 1 because the colors are read and processed one by one.

【0044】なお、上記では、入力画像データについて
1つずつ色を読み込んで1つのカラーリストを作成する
ようにしたが、例えば、入力画像データの半分の画素を
使って上記と同様の方法で作成したカラーリストと、入
力画像データの残りの半分の画素を使って上記と同様の
方法で作成したカラーリストとを、(さらに混色処理す
るなどして)1つのカラーリストに統合するような方法
など、他の方法も可能である。
In the above description, one color is read for each input image data to create one color list. However, for example, a color list is created by using half the pixels of the input image data. A color list created by the same method as above using the remaining half of the pixels of the input image data (by further performing color mixing processing, etc.) into a single color list, etc. , Other methods are possible.

【0045】次に、作成されたカラーリストにおいて、
出現数が基準以下(例えば、全画素数の0.5%に相当
する個数以下)の登録色をノイズとみなし、カラーリス
トから該当する登録色に関する情報を削除する(ステッ
プS14)。
Next, in the created color list,
Registered colors whose number of appearances is equal to or less than a reference (for example, equal to or less than the number corresponding to 0.5% of the total number of pixels) are regarded as noise, and information regarding the corresponding registered color is deleted from the color list (step S14).

【0046】次に、この時点でカラーリストに登録され
ている登録色の色数を調べ、それが限定色数(パラメー
タc)より大きい値ならば(ステップS15)、登録色
を限定する処理を行う(ステップS16)。登録色数が
限定色数(パラメータc)以下ならば、登録色を限定す
る処理はスキップする。
Next, at this time, the number of registered colors registered in the color list is checked, and if it is larger than the limited number of colors (parameter c) (step S15), the process of limiting the registered colors is executed. Perform (step S16). If the number of registered colors is less than or equal to the limited number of colors (parameter c), the process of limiting the registered colors is skipped.

【0047】登録色を限定する処理では、登録色限定部
4が、カラーリストの登録色数が限定色数(パラメータ
c)以下になるまで、混色処理を行う(1回の混色処理
で、登録色を1色減らすことができる)。すなわち、各
時点で、全登録色のうち最も近い2色すなわちL*a*
b*空間上のユークリッド距離が最小になる2色を探索
し、それらを上記した混色方法に従って混色し、カラー
リストを更新する。これを、カラーリストの登録色数が
限定色数(パラメータc)以下になるまで繰り返し行
う。
In the process of limiting the registered colors, the registered color limiting unit 4 performs the color mixing process until the number of registered colors in the color list becomes equal to or less than the limited number of colors (parameter c) (in one color mixing process, registration is performed. One color can be reduced). That is, at each time point, the two closest colors among all registered colors, that is, L * a *
The two colors that minimize the Euclidean distance on the b * space are searched for, the colors are mixed according to the color mixing method described above, and the color list is updated. This is repeated until the number of colors registered in the color list becomes equal to or less than the limited number of colors (parameter c).

【0048】次に、登録色限定部4により、カラーリス
トに登録された登録色の中から、当該入力画像データに
ついての使用色を決定する。
Next, the registered color limiting unit 4 determines the used color for the input image data from the registered colors registered in the color list.

【0049】このステップS17〜S19の処理は、繰
り返し処理となる。
The processes of steps S17 to S19 are repeated.

【0050】まず、登録色限定部4は、L*a*b*の
各軸をそれぞれ領域分割し、L*a*b*の各軸ごと
に、領域内の出現数によるヒストグラムを作成する(ス
テップS17)。なお、領域分割の仕方は、適宜決めて
構わない。
First, the registered color limiting section 4 divides each axis of L * a * b * into regions, and creates a histogram according to the number of appearances in each region for each axis of L * a * b * ( Step S17). It should be noted that the method of area division may be appropriately determined.

【0051】次に、L軸に対応するヒストグラムにおい
て各領域の出現数を結んだグラフの作る凸の数(図7に
凸の数が3である例を示す)と、a軸に対応するヒスト
グラムにおいて各領域の出現数を結んだグラフの作る凸
の数と、b軸に対応するヒストグラムにおいて各領域の
出現数を結んだグラフの作る凸の数とを調べ、それらの
うちで最も多い凸の数を当該入力画像データの使用色数
とし、この使用色数を保存しておく(ステップS1
8)。
Next, in the histogram corresponding to the L axis, the number of convexes formed by the graph connecting the number of appearances of each area (FIG. 7 shows an example in which the number of convexes is 3) and the histogram corresponding to the a axis In, the number of convexes formed by the graph connecting the number of appearances of each area and the number of convexes formed by the graph connecting the number of appearances of each area in the histogram corresponding to the b-axis are examined, and The number is used as the number of colors used in the input image data, and the number of colors used is stored (step S1).
8).

【0052】次に、今回の使用色数と前回の使用色数と
を比較し、それらに変化があれば(ステップS19)、
ステップS17に戻る。なお、初回は、前回の使用色数
がないので、使用色数に変化があるものとみなす(ある
いは、例えば使用色数の初期値を0としておくなどして
もよい)。
Next, the number of colors used this time is compared with the number of colors used last time, and if there is a change (step S19),
It returns to step S17. In the first time, since there is no previous number of used colors, it is considered that the number of used colors has changed (or, for example, the initial value of the number of used colors may be set to 0).

【0053】ステップS17に戻った場合、先のステッ
プS18で求められた使用色数になるまで、ステップS
16と同様にして、カラーリスト中の最も近い色を混色
していき、そして、再びヒストグラムを作成し、さら
に、ステップS18で、再び当該入力画像データの使用
色数を求め、保存する。
When the process returns to step S17, step S18 is repeated until the number of used colors obtained in step S18 is reached.
Similar to step 16, the closest colors in the color list are mixed, a histogram is created again, and in step S18, the number of used colors of the input image data is again determined and stored.

【0054】以上の処理を、ステップS19で使用色数
に変化がないと判断されるまで、繰り返し行う。
The above process is repeated until it is determined in step S19 that the number of colors used has not changed.

【0055】そして、ステップS19で、今回の使用色
数が前回の使用色数に比べて変化していないと判断され
れば、このループ処理は終了となり、この時点における
カラーリストの登録色が、当該入力画像データの使用色
として決定されたことになる。
If it is determined in step S19 that the number of colors used this time has not changed from the number of colors used last time, this loop processing ends, and the colors registered in the color list at this point are It has been decided as the color to be used for the input image data.

【0056】次に、目立つ度合い計算部5により、入力
画像データの使用色(すなわち、カラーリストの登録
色)に対して、目立つ度合いを計算する。
Next, the salient degree calculation unit 5 calculates the salient degree with respect to the used color of the input image data (that is, the color registered in the color list).

【0057】まず、目立つ度合い計算部5は、カラーリ
ストに登録されている色を対象に、L*a*b*座標系
から、より人間の感覚に近いと考えられているHSV
(Hue:色相、Satulation:彩度、Val
ue:明度)座標系への変換を行う(ステップS2
0)。
First, the conspicuousness degree calculation unit 5 targets the colors registered in the color list from the L * a * b * coordinate system and considers that the HSV is closer to the human sense.
(Hue: Hue, Saturation: Saturation, Val
ue: brightness) conversion to the coordinate system (step S2)
0).

【0058】次に、目立つ度合いの要素となる誘目性の
高さC2 を、色相、彩度、明度それぞれへの影響比率
(パラメータv(s,t,u))をもとに、次のように
算出する(ステップS21)。 C2 =(s×色相による影響値+t×彩度+u×明度)÷(s+t+u) …(1) ここで用いる影響値は、色相Hの値の範囲に対応してい
る。
Next, based on the influence ratio (parameter v (s, t, u)) on each of hue, saturation, and lightness, the attractiveness C 2 which is an element of the degree of conspicuity is calculated as follows. (Step S21). C 2 = (s × influence value by hue + t × saturation + u × lightness) ÷ (s + t + u) (1) The influence value used here corresponds to the range of the hue H value.

【0059】次に、イメージカラー抽出部6により、イ
メージカラーの選択を行う。
Next, the image color extracting section 6 selects an image color.

【0060】まず、イメージカラー抽出部6は、カラー
リストの登録色に対して、目立つ度合いLを、色の領域
の大きさ、誘目性の高さ、コントラスト感の高さそれぞ
れへの影響比率(パラメータm(e,f,g))をもと
に、次のように算出する(ステップS22)。 L=((e・C1 2 +(f・C2 2 +(g・C3 2 1/2 …(2) ここで、カラーリストの各々の登録色に対する注目色の
領域の大きさC1 、コントラスト感C3 を、それぞれ、
出現数の全画素数に対する割合、その他の色との明度差
と定義する。C2 は上記の誘目性の高さである。
First, the image color extraction unit 6 determines the degree of conspicuousness L with respect to the colors registered in the color list, and the influence ratios on the size of the color area, the high attractiveness, and the high contrast feeling ( Based on the parameter m (e, f, g)), the calculation is performed as follows (step S22). L = ((e · C 1 ) 2 + (f · C 2) 2 + (g · C 3) 2) 1/2 ... (2) where, in the region of interest color for each of the registered color colorist The size C 1 and the contrast C 3 are respectively
It is defined as the ratio of the number of appearances to the total number of pixels and the difference in brightness from other colors. C 2 is the above-mentioned high attractiveness.

【0061】これによって、カラーリストの各々の登録
色に対する目立つ度合いLが得られる。
As a result, the noticeable degree L for each registered color in the color list is obtained.

【0062】そして、イメージカラー抽出部6は、入力
画像データに対するカラーリストの登録色を、目立つ度
合いLが高いものから、指定色数(パラメータi)で指
定された個数だけ、イメージカラーとして選択する(ス
テップS23)。
Then, the image color extracting section 6 selects the registered colors of the color list for the input image data from the ones having a high degree of conspicuousness L, as many as the image colors designated by the designated color number (parameter i). (Step S23).

【0063】なお、色数絞り込みの手法は、上記した混
色方法の代わりに、PA法(文献9「P.Heckbe
rt:Color Image Quantizati
onfor Frame Buffer Displa
y, ComputerGraphics, Vol.
16, No.3, 1982」)やMCA法(文献1
0「鈴木寿和他:色選択に柔軟性を持たせた限定色表示
手法、テレビジョン学会誌、Vol.43、No.3、
pp.268−275、1989」)などの他手法を用
いることも可能である。
The method of narrowing down the number of colors is not limited to the above-described color mixing method, but is the PA method (reference 9 “P. Heckbe”).
rt: Color Image Quantizati
on for Frame Buffer Display
y, Computer Graphics, Vol.
16, No. 3, 1982 ") and the MCA method (Reference 1)
0 "Suzuki Suzuki, et al .: Limited color display method with flexibility in color selection, Journal of Television Society, Vol. 43, No. 3,
pp. 268-275, 1989 ") and other techniques can also be used.

【0064】また、上記では、選択のための評価値とし
て目立つ度合いを用いたが、その他の方法も可能であ
る。
Further, in the above, the conspicuous degree is used as the evaluation value for selection, but other methods are possible.

【0065】続いて、図4を参照しながら、構図の切り
出し(ステップS5)について説明する。
Subsequently, the composition cutting (step S5) will be described with reference to FIG.

【0066】最初に、制約条件内での入力画像データ
(図5参照)の分割の処理が行われる。
First, the input image data (see FIG. 5) is divided within the constraint conditions.

【0067】まず、制約条件読み取り部7により、制約
条件(15)が、キーボード入力あるいはネットワーク
によるオンライン入力あるいは情報伝達の媒体である磁
気テープからの読み込みなどの所定の入力形態で、入力
される(ステップS31)。
First, the constraint condition reading unit 7 inputs the constraint condition (15) in a predetermined input form such as keyboard input, online input via a network, or reading from a magnetic tape which is a medium for transmitting information ( Step S31).

【0068】図8に、制約条件の一例を示す。FIG. 8 shows an example of constraint conditions.

【0069】この例では、[vert,…]で縦分割
(上と下への分割)、[horiz,…]で横分割(左
と右への分割)、[daig,…]で斜め分割を指定す
るものとし、[vert,*,[horiz,*,ni
l,nil,*],[daig,*,nil,nil,
*],*]のように入れ子構造で指示できるものとして
いる。[vert,*,[horiz,*,nil,n
il,*],[daig,*,nil,nil,*],
*]は、最初に、最も外側に記述されているvertに
従う分割すなわち上下の分割を行い、次に、入力画像デ
ータのより上側に該当する方の分割領域に対して、その
1つ内側で先行して記述されているhorizに従う分
割すなわち左右の分割を行い、および入力画像データの
より下側に該当する方の分割領域に対して、後続して記
述されているdaigに従う分割すなわち斜めの分割を
行うことを指示する例である。なお、最も外側にhor
izまたはdaigが記述されている場合には、hor
izまたはdaigに従う分割を行い、次に、入力画像
データのより左側に該当する方の分割領域に対して、そ
の次の内側で先行する記述に従う分割を行い、および入
力画像データのより右側に該当する方の分割領域に対し
て、後続する記述に従う分割を行うようにすればよい。
また、このような入れ子構造は、何階層にも記述可能で
ある。なお、nilは、それ以上分割を行わないことを
意味し、*は、省いても構わない。
In this example, [vert, ...] Specifies vertical division (upper and lower division), [horiz, ...] specifies horizontal division (left and right division), and [daig, ...] specifies diagonal division. Assuming that [vert, *, [horiz, *, ni
l, nil, *], [daig, *, nil, nil,
*], *] Can be specified in a nested structure. [Vert, *, [horiz, *, nil, n
il, *], [daig, *, nil, nil, *],
*] First performs division according to the outermost described vert, that is, upper and lower division, and then precedes the divided area corresponding to the upper side of the input image data by one inside thereof. Division according to horiz, that is, left-right division, and division according to daig described below, that is, diagonal division, is performed on the divided area corresponding to the lower side of the input image data. This is an example of instructing to do. The outermost hor
If iz or daig is described, hor
The division according to iz or daig is performed, then the division area corresponding to the left side of the input image data is divided according to the preceding description inside, and the division area corresponding to the right side of the input image data is applied. It suffices to divide the divided area according to the following description into the divided area.
Further, such a nested structure can be described in any number of layers. Note that nil means that no further division is performed, and * may be omitted.

【0070】また、この例では、“vert”:縦分割
(0≦angle≦30、150≦angle≦18
0)、“horiz”:横分割(60≦angle≦1
20)、“daig”:斜め分割(30≦angle≦
60、120≦angle≦150)は、それぞれの分
割における分割線に付けられる角度についての制約であ
る。
In this example, "vert": vertical division (0≤angle≤30, 150≤angle≤18)
0), “horiz”: horizontal division (60 ≦ angle ≦ 1
20), “daig”: diagonal division (30 ≦ angle ≦
60, 120 ≦ angle ≦ 150) is a constraint on the angle attached to the dividing line in each division.

【0071】次に、分割方向・位置決定部8は、あらか
じめ指定されたこれらの情報をもとに(指定されたリス
トの構造と制約角度の範囲内で)、分割方向、位置(パ
ラメータ)を決定する(ステップS32)。
Next, the division direction / position determining unit 8 determines the division direction and position (parameter) based on these pieces of information designated in advance (within the range of the designated list structure and constraint angle). It is determined (step S32).

【0072】図8に例示した制約条件を指定した場合に
は、角度には、縦、横、斜めの3種類の制約が設けら
れ、それぞれ以下のように定義される。 縦分割:0≦angle≦30、150≦angle≦
180 横分割:60≦angle≦120 斜め分割:30≦angle≦60、120≦angl
e≦150 最初の分割では、図8のリスト構造に従い、縦分割が行
われる。ここでは、上記の角度制約の範囲内で縦分割し
たときに、分割された一方の領域の色合いと他方の領域
の色合いとの差が最大になるような分割線の位置を求
め、分割パラメータを決定する。
When the constraint condition illustrated in FIG. 8 is specified, the angle is provided with three types of constraints of vertical, horizontal, and diagonal, which are defined as follows. Vertical division: 0 ≦ angle ≦ 30, 150 ≦ angle ≦
180 Horizontal division: 60 ≦ angle ≦ 120 Diagonal division: 30 ≦ angle ≦ 60, 120 ≦ angle
e ≦ 150 In the first division, vertical division is performed according to the list structure of FIG. Here, when the vertical division is performed within the range of the above-mentioned angle constraint, the position of the dividing line that maximizes the difference between the hue of one of the divided areas and the hue of the other area is obtained, and the division parameter is set to decide.

【0073】ここでは、分割パラメータは、分割線の角
度と、入力画像データの基準点(例えば、左上の点)か
らの相対座標による分割線上の所定の1点(例えば、x
切片またはy切片)とする。もちろん、入力画像データ
の基準点(例えば、左上の点)からの相対座標による分
割線上の所定の2点(例えば、x切片およびy切片)な
ど、他の形式でもよい。
Here, the division parameter is a predetermined one point (eg, x) on the division line based on the angle of the division line and relative coordinates from the reference point (eg, upper left point) of the input image data.
Section or y-section). Of course, other formats such as two predetermined points (for example, x-intercept and y-intercept) on the dividing line based on the relative coordinates from the reference point (for example, the upper left point) of the input image data may be used.

【0074】次の分割では、図8のリスト構造に従い、
縦分割により得られた上側の分割領域に対して、上記の
角度制約の範囲内での横分割が行われるとともに、下側
の分割領域に対して、上記の角度制約の範囲内での斜め
分割が行われる。ここでも、それぞれの分割において、
分割された一方の領域の色合いと他方の領域の色合いと
の差が最大になるような分割線の位置を求め、分割パラ
メータを決定する。
In the next division, according to the list structure of FIG.
Horizontal division within the above angle constraint range is performed on the upper divided area obtained by vertical division, and diagonal division within the above angle constraint range is performed on the lower divided area. Is done. Again, in each division,
The position of the dividing line that maximizes the difference between the hue of one of the divided areas and the hue of the other area is determined, and the division parameter is determined.

【0075】なお、リスト構造にさらに次の入れ子が存
在する場合には、同様の処理を繰り返し行う。
If the following nesting is present in the list structure, the same processing is repeated.

【0076】さて、このように制約条件のもとで分割線
を決定し、リスト構造内にさらなる入れ子が存在しない
(つまり、制約条件内での分割が終了した)ならば(ス
テップS33)、繰り返し処理を終了する。
By the way, if the dividing line is determined under the constraint condition and there is no further nesting in the list structure (that is, the division within the constraint condition is completed) (step S33), the process is repeated. The process ends.

【0077】得られた分割パラメータ(14)は、所定
の形式で保存しておく。
The obtained division parameter (14) is stored in a predetermined format.

【0078】なお、得られた分割パラメータを、図8の
リスト構造の該当する部分に記述していくような形態も
可能である。図8のリスト構造に、得られた分割線の角
度と位置を記述していった例を、図9に示す。図9で
は、縦分割線については、角度=10.0、y切片=5
0、その下位層での横分割線については、角度=80.
0、x切片=50、斜め分割線については、角度=4
5.0、y切片=200であることが記述されている。
It is also possible to describe the obtained division parameter in the corresponding portion of the list structure of FIG. FIG. 9 shows an example in which the angle and position of the obtained dividing line are described in the list structure of FIG. In FIG. 9, for the vertical dividing line, angle = 10.0, y intercept = 5
0, for the horizontal division line in the lower layer, angle = 80.
0, x intercept = 50, for diagonal dividing line, angle = 4
It is described that 5.0 and y-intercept = 200.

【0079】また、図5の入力画像データを分割した例
を、図10に示す。
FIG. 10 shows an example in which the input image data of FIG. 5 is divided.

【0080】続いて、上記の分割結果に対して、条件に
とらわれない分割の処理が行われる。
Subsequently, the above division result is subjected to a division process which is not restricted by the condition.

【0081】ここでは、ステップS31において、パラ
メータ入力部2により、各分割領域に対して、パラメー
タ情報(14)が、キーボード入力あるいはネットワー
クによるオンライン入力あるいは情報伝達の媒体である
磁気テープからの読み込みなどの所定の入力形態で、入
力されるものとしている。なお、この入力を、ステップ
S33の終了後に行うようにしても構わない。
Here, in step S31, the parameter input section 2 reads the parameter information (14) for each divided area from the magnetic tape, which is a keyboard input, online input via a network, or an information transmission medium. It is assumed that the input is made in a predetermined input form. Note that this input may be performed after the end of step S33.

【0082】図11に、パラメータ情報の一例を示す。
パラメータp1は、角度制約内の変更角度幅であり、パ
ラメータp2は、分割線の移動幅であり、パラメータp
3は、分割不可能最小領域面積であり、パラメータp4
は、分割の強さのしきい値である。なお、この例では、
パラメータp1とパラメータp2は、縦、横、斜めの各
分割で共通にしているが、パラメータp1やパラメータ
p2は、縦、横、斜めの各々の分割ごとに指定するよう
にしてもよい。
FIG. 11 shows an example of parameter information.
The parameter p1 is the change angle width within the angle constraint, the parameter p2 is the movement width of the dividing line, and the parameter p is
3 is the minimum indivisible area area, and the parameter p4
Is the threshold of division strength. In this example,
The parameter p1 and the parameter p2 are common to the vertical, horizontal, and diagonal divisions, but the parameter p1 and the parameter p2 may be specified for each of the vertical, horizontal, and diagonal divisions.

【0083】再帰的分割適用部9は、縦方向に、与えら
れた制約範囲(パラメータp1)内で角度を変えなが
ら、かつまた、与えられた移動幅(パラメータp2)ご
とに分割線を入れながら、分割された一方の領域と他方
の領域との間の分割の強さ(後述する)が最大になるよ
うな分割線の位置を求める(ステップS34)。再帰的
分割適用部9は、縦方向にも同様の処理を行う(ステッ
プS35)。また、斜め方向にも同様の処理を行う(ス
テップS36)。なお、3つの処理は、順番に行っても
よいし、所定の処理単位ずつ交互的に行ってもよいし、
同時的あるいは並列的に行ってもよい。
The recursive division applying section 9 changes the angle in the vertical direction within a given constraint range (parameter p1), and also inserts a division line for each given movement width (parameter p2). The position of the dividing line that maximizes the strength of division (described later) between one of the divided areas and the other area is obtained (step S34). The recursive division application unit 9 also performs the same processing in the vertical direction (step S35). Also, the same processing is performed in the diagonal direction (step S36). Note that the three processes may be performed in sequence, or may be performed alternately in predetermined process units,
You may perform simultaneously or in parallel.

【0084】そして、3つの方向の分割にてそれぞれ求
められた分割線に対応する分割の強さのうち、最大の分
割の強さを持つ分割についての分割線の位置を選択する
(ステップS37)。
Then, of the division strengths corresponding to the division lines respectively obtained by the divisions in the three directions, the position of the division line having the maximum division strength is selected (step S37). .

【0085】ここで、分割された2つの領域の両方が、
与えられた一定面積(パラメータp3)以下であるか、
あるいは、選択された分割線に対応する分割の強さが、
与えられた閾値(パラメータp4)以下であるならば
(ステップS38)、分割を終了する。一方、それ以外
の場合には(ステップS38)、各分割領域に対して、
上記と同様にして分割を続ける。
Here, both of the two divided regions are
Is less than a given constant area (parameter p3),
Alternatively, if the division strength corresponding to the selected dividing line is
If it is less than or equal to the given threshold value (parameter p4) (step S38), the division is ended. On the other hand, in other cases (step S38), for each divided area,
The division is continued in the same manner as above.

【0086】なお、上記の判断を、分割された個々の領
域ごとに行い、分割を続ける条件を満たした領域につい
て(条件を満たす領域の個数が、0の場合と、1の場合
と、2の場合があり得る)、上記と同様にして分割を続
けるようにしてもよい。
The above judgment is performed for each of the divided areas, and for the areas satisfying the condition for continuing the division (when the number of conditions is 0, 1 and 2). In some cases), the division may be continued in the same manner as above.

【0087】得られた分割パラメータ(14)は、前述
した制約条件内での分割の処理のときと同様にして、所
定の形式で保存しておく。
The obtained division parameter (14) is stored in a predetermined format in the same manner as in the case of the division processing within the constraint conditions described above.

【0088】なお、前述のように、得られた分割パラメ
ータを、図8のリスト構造の該当する部分に記述してい
くような形態をとる場合には、リスト構造の該当する部
分に、該当する入れ子構造を挿入すればよい。例えば、
図9の該当するnilの部分に、[角度,位置,ni
l,nil,*]を挿入すればよい。
As described above, when the obtained division parameter is described in the corresponding part of the list structure of FIG. 8, it corresponds to the corresponding part of the list structure. Just insert a nested structure. For example,
In the corresponding nil part in FIG. 9, [angle, position, ni
l, nil, *] may be inserted.

【0089】また、図10の分割結果に対して、条件に
とらわれない分割の処理を行った結果の例を、図12に
示す。
FIG. 12 shows an example of a result obtained by performing a condition-independent division process on the division result of FIG.

【0090】ここで、再帰的分割適用部9における処理
例についてより詳しく説明する。
Here, a processing example in the recursive division applying section 9 will be described in more detail.

【0091】分割の強さS(t)は、例えば、以下のよ
うに定義する。ある面積領域Iに対して位置tで領域C
1 と領域C2 に分割した際、面積領域I全体の色の分散
に対して、領域C1 と領域C2 との間の色の分散を最大
にする分割を、よい分割とする。すなわち、領域C1
領域C2 と面積領域Iに対して、領域中に存在する全画
素のRGB空間座標の平均値を、それぞれ、μ
1 (t)、μ2 (t)、μT とし、領域C1 と領域C2
との間の分散をσB とし、全体の分散をσT とすれば、
分割の強さは、次のように求められる。 S(t)=σB 2 σT 2 σB 2 =w1 (t)|μ1 (t)−μT 2 +w
2 (t)|μ2 (t)−μT 2 ここで、w1 (t)、w2 (t)は、それぞれ、面積領
域I全体に対する領域C1 、領域C2 の大きさである。
The division strength S (t) is defined as follows, for example. Region C at position t with respect to certain area I
When divided into 1 and region C 2, the dispersion of color in the entire area region I, the division to maximize the dispersion of color between the region C 1 and the region C 2, and good split. That is, with respect to the area C 1 , the area C 2, and the area area I, the average value of the RGB spatial coordinates of all the pixels existing in the area is μ
1 (t), μ 2 (t), μ T, and region C 1 and region C 2
If the variance between and is σ B and the overall variance is σ T , then
The strength of division is calculated as follows. S (t) = σ B 2 / σ T 2 σ B 2 = w 1 (t) | μ 1 (t) −μ T | 2 + w
2 (t) | μ 2 (t) −μ T | 2 where w 1 (t) and w 2 (t) are the sizes of the region C 1 and the region C 2 with respect to the entire area region I, respectively. .

【0092】再帰的分割適用部9は、次のような処理を
行う。 (1:縦分割)大きさM×Nの入力画像データの面積領
域Iに対し、横方向について幅mごとに分割線を入れ領
域分割する。各分割線の分割の強さSm (t)を求め
る。角度制約(例えば、0≦angle≦30、150
≦angle≦180)の範囲内で角度を変えて、これ
を繰り返す。縦分割の強さ最大値SM と、その際の分割
位置tを求める。
The recursive division application section 9 performs the following processing. (1: Vertical division) With respect to the area area I of the input image data of size M × N, a dividing line is inserted for each width m in the horizontal direction to divide the area. The division strength S m (t) of each division line is obtained. Angle constraint (for example, 0 ≦ angle ≦ 30, 150
The angle is changed within the range of ≦ angle ≦ 180) and this is repeated. The maximum vertical division strength S M and the division position t at that time are obtained.

【0093】(2:横分割)同様に、縦方向について、
幅nごとに分割線を入れ、各分割線の分割の強さS
n (t)を求める。角度制約(60≦angle≦12
0)の範囲内で角度を変えて、これを繰り返す。横分割
の強さ最大値SN と、その際の分割位置tを求める。
(2: Horizontal division) Similarly, regarding the vertical direction,
A dividing line is inserted for each width n, and the dividing strength S of each dividing line is
Find n (t). Angle constraint (60 ≦ angle ≦ 12
This is repeated by changing the angle within the range of 0). The maximum horizontal division strength S N and the division position t at that time are obtained.

【0094】(3:斜め分割)同様に、斜め方向につい
て、幅kごとに分割線を入れ、各分割線の分割の強さS
k (t)を求める。角度制約(30≦angle≦6
0、120≦angle≦150)の範囲内で角度を変
えて、これを繰り返す。斜め分割の強さ最大値SL と、
その際の分割位置tを求める。
(3: Diagonal division) Similarly, in the diagonal direction, a dividing line is inserted for each width k, and the dividing strength S of each dividing line is S.
Find k (t). Angle constraint (30 ≦ angle ≦ 6
The angle is changed within the range of 0, 120 ≦ angle ≦ 150), and this is repeated. The maximum strength S L of the diagonal division,
The division position t at that time is obtained.

【0095】(4)SM (t)、SN (t)、S
L (t)のうち、SM (t)が最大ならば横方向にSM
(t)を与える位置tで分割し、SN (t)が最大なら
ば縦方向にSN (t)を与える位置tで分割し、S
L (t)が最大ならば斜め方向にSL (t)を与える位
置tで分割する。
(4) S M (t), S N (t), S
If S M (t) is the maximum of L (t), then S M
(T) is divided at the position t, and if S N (t) is maximum, it is divided in the vertical direction at the position t that gives S N (t), and S
If L (t) is the maximum, division is performed at a position t that gives S L (t) in an oblique direction.

【0096】(5)それ以上分割不可能(領域が一定面
積以下もしくは分割する位置がない)になるまで繰り返
す。
(5) Repeat until no further division is possible (the area is below a certain area or there is no division position).

【0097】次に、領域特徴量計算部10は、最終的に
得られた分割パラメータ(14)に従い分割された、入
力画像データの部分領域の全部または一部に対し、当該
部分領域に関する属性情報を、特徴量として計算する
(ステップS39)。部分領域は、例えば、いずれかの
分割段階で2分された片側の分割領域である。また、属
性情報は、例えば、所定の分割領域内に存在する全画素
のRGB空間座標の平均である。
Next, the area feature amount calculation section 10 determines, for all or some of the partial areas of the input image data, which are divided according to the finally obtained division parameter (14), attribute information relating to the partial areas. Is calculated as a feature amount (step S39). The partial region is, for example, a divided region on one side divided into two in any one of the division stages. The attribute information is, for example, the average of RGB spatial coordinates of all pixels existing in a predetermined divided area.

【0098】なお、この部分領域の属性情報も、図8の
リスト構造の該当する部分に記述していくような形態も
可能である。この場合の例を、図13に示す。図13に
おいては、最初の縦分割による上半分にあたる部分領域
の全画素のRGBベクトル値の平均が(128:60:
80)であり、下半分にあたる部分領域の全画素のRG
Bベクトル値の平均が(255:128:25)である
ことを示している。
The attribute information of this partial area may be described in the corresponding portion of the list structure of FIG. An example of this case is shown in FIG. In FIG. 13, the average of the RGB vector values of all pixels in the upper half part of the first vertical division is (128: 60:
80), and RG of all pixels in the lower half partial area
It shows that the average of the B vector values is (255: 128: 25).

【0099】上記では、直線で縦、横、斜め方向に分割
する場合を例にとって説明したが、円や放射状の領域分
割手法も可能であり、また、分割条件は、分割近傍領域
の色平均を比較するなどの他手法を用いることも可能で
ある。
In the above description, the case where the line is divided vertically, horizontally and diagonally has been described as an example. However, a circle or radial region dividing method is also possible, and the dividing condition is that the color average of the divided neighboring regions is used. It is also possible to use other methods such as comparison.

【0100】また、本実施形態では、制約条件内での入
力画像データの分割を行い、これに続いて、条件にとら
われない分割を行うようにしたが、例えば、ユーザが、
前者を行い後者は行わないか、前者を行わずに後者を行
うか、両方を行うかを、指定できるようにしてもよい。
また、本画像モデル化装置が、制約条件内での入力画像
データの分割と、条件にとらわれない分割のいずれか一
方のみを行う機能を備えるようにすることも可能であ
る。
Further, in the present embodiment, the input image data is divided within the constraint condition, and then the condition-independent division is performed.
It may be possible to specify whether the former is performed and the latter is not performed, the latter is performed without performing the former, or both are performed.
Further, the image modeling device may be provided with a function of performing either one of the division of the input image data within the constraint condition and the division regardless of the condition.

【0101】さて、以上説明してきたようにしてイメー
ジカラーが決定されると(ステップS2)、得られたイ
メージカラー特徴量(13)は、例えば当該入力画像デ
ータまたはその識別情報に対応付けるなどして、所定の
データベース等に保存される(ステップS3)。イメー
ジカラー特徴量は、例えば、選択した登録色のベクトル
値と、目立つ度合いなどの評価値と、出現数の情報と、
順位などの情報の全部または一部である。登録色のベク
トル値は、例えば、HSV空間座標値を用いる方法と、
RGB空間座標値を用いる方法と、Lab空間座標値を
用いる方法と、それらのうちのいずれか2つまたは3つ
を併記する方法などがある。
When the image color is determined as described above (step S2), the obtained image color feature amount (13) is associated with the input image data or its identification information, for example. , Is stored in a predetermined database or the like (step S3). The image color feature amount is, for example, a vector value of the selected registered color, an evaluation value such as a degree of conspicuity, information on the number of appearances,
All or part of information such as ranking. For the vector value of the registered color, for example, a method using HSV space coordinate values,
There are a method of using RGB space coordinate values, a method of using Lab space coordinate values, and a method of writing any two or three of them.

【0102】同様に、構図が切り出されると(ステップ
S5)、得られた構図特徴量(16)は、例えば当該入
力画像データまたはその識別情報に対応付けるなどし
て、所定のデータベース等に保存される(ステップS
6)。構図特徴量は、例えば、分割線パラメータと、部
分領域に関する属性情報である。なお、目的に応じて、
分割線パラメータと、部分領域に関する属性情報の一方
のみ保存してもよい(前者のみ保存する場合には、領域
特徴量計算部10は省いても構わない)。
Similarly, when the composition is cut out (step S5), the obtained composition feature amount (16) is stored in a predetermined database or the like, for example, in association with the input image data or its identification information. (Step S
6). The composition feature amount is, for example, a dividing line parameter and attribute information about the partial area. Depending on the purpose,
Only one of the dividing line parameter and the attribute information regarding the partial area may be stored (in the case of storing only the former, the area feature amount calculation unit 10 may be omitted).

【0103】なお、イメージカラー特徴量や構図特徴量
を保存する際に、その特徴量を得るもととなったパラメ
ータ情報またはこれを特定する情報を併せて保存するよ
うにしてもよい。
When the image color characteristic amount and the composition characteristic amount are stored, the parameter information from which the characteristic amount is obtained or the information for specifying the parameter information may be stored together.

【0104】また、以上説明してきたようにして作成さ
れ保存されたイメージカラー特徴量や構図特徴量は、作
成されたとき、あるいはユーザが指定したき、あるいは
特定のアプリケーションプログラムが動作したときに、
抽出結果表示部11により、所定の表示形態で表示され
る(ステップS4,S7)。ある画像データに対してイ
メージカラー特徴量と構図特徴量の両方が保存されてい
るときに、両方を順次または同時に表示するようにして
もよいし、例えばユーザが指定したもののみを表示する
ようにしてもよい。
The image color feature amount and the composition feature amount created and saved as described above are generated when they are created, when they are designated by the user, or when a specific application program is operated.
The extraction result display unit 11 displays it in a predetermined display form (steps S4 and S7). When both the image color feature amount and the composition feature amount are stored for a certain image data, both may be displayed sequentially or simultaneously, for example, only the one designated by the user may be displayed. May be.

【0105】色に基づくモデル化の結果は、例えば、図
14や図15に例示するように表示してもよい。図14
は、実際に色表示する例であり(なお、図14のハッチ
ングの相違は、表示色の相違を説明するためのものであ
る)、図15は数値表示する例である。また、色表示と
数値表示を併用してもよい。
The result of color-based modeling may be displayed as illustrated in FIGS. 14 and 15, for example. 14
Is an example of actual color display (note that the hatching difference in FIG. 14 is for explaining the difference in display color), and FIG. 15 is an example of numerical display. Further, color display and numerical display may be used together.

【0106】また、例えばユーザがイメージカラーとし
て表示する色数を指定できるようにしてもよい。また、
例えばユーザが複数の表示モードから所望のものを選択
できるようにしてもよい。その他、表示方法について
は、様々なバリエーションが考えられる。
Also, for example, the user may be allowed to specify the number of colors to be displayed as image colors. Also,
For example, the user may be allowed to select a desired one from a plurality of display modes. In addition, various variations of the display method are possible.

【0107】構図に基づくモデル化の結果、例えば、図
12のように表示してもよい。この場合は、実際に、画
像データ上に、分割線が表示される。また、該当する部
分領域を、該当するRGB空間座標の平均値で塗りつぶ
すなどの方法もある。その他、表示方法については、様
々なバリエーションが考えられる。
The result of modeling based on the composition may be displayed as shown in FIG. 12, for example. In this case, the dividing line is actually displayed on the image data. There is also a method of filling the corresponding partial area with the average value of the corresponding RGB space coordinates. In addition, various variations of the display method are possible.

【0108】ところで、以上では、色に基づく特徴量へ
の変換と、構図に基づく特徴量への変換の両方を行うよ
うにしたが、例えばユーザが、色に基づく特徴量への変
換のみ、構図に基づく特徴量への変換のみ、色に基づく
特徴量への変換と構図に基づく特徴量への変換の両方の
うちから、いずれかを選択できるようにする構成も可能
である。
By the way, in the above, both the conversion into the feature amount based on the color and the conversion into the feature amount based on the composition are performed, but for example, the user only performs the conversion into the feature amount based on the color. It is also possible to adopt a configuration in which either of the conversion into the feature amount based on the color, the conversion into the feature amount based on the color, and the conversion into the feature amount based on the composition can be selected.

【0109】また、本画像モデル化装置が、色に基づく
特徴量への変換と、構図に基づく特徴量への変換のいず
れかのみできるようにする構成も可能である。色に基づ
く特徴量に変換する機能を備え、構図に基づく特徴量に
変換する機能を備えない場合には、これまで説明した構
成において、制約条件読み取り部7、分割方向・位置決
定部8、再帰的分割適用部9、領域特徴量計算部10、
抽出結果表示部11を省いて構わない。構図に基づく特
徴量に変換する機能を備え、色に基づく特徴量に変換す
る機能を備えない場合には、これまで説明した構成にお
いて、カラーリスト作成部3、登録色限定部4、目立つ
度合い計算部5、イメージカラー抽出部6を省いて構わ
ない。
It is also possible to adopt a configuration in which the image modeling device is capable of performing only either conversion into a feature amount based on color or conversion into a feature amount based on composition. When the function to convert to the feature amount based on the color is provided but not to the function to convert to the feature amount based on the composition, the constraint condition reading unit 7, the division direction / position determination unit 8, the recursive in the configuration described so far. Automatic division application unit 9, area feature amount calculation unit 10,
The extraction result display unit 11 may be omitted. When the function for converting to the feature amount based on the composition is provided and the function to convert to the feature amount based on the color is not provided, in the configuration described so far, the color list creating unit 3, the registered color limiting unit 4, and the prominence degree calculation The unit 5 and the image color extraction unit 6 may be omitted.

【0110】また、上記では、色に基づく特徴量や構図
に基づく特徴量を求める例について示したが、オブジェ
クトに基づく特徴量やテスクチャに基づく特徴量など、
他の特徴量を求めることも可能である。
In the above, an example of obtaining the feature amount based on the color or the feature amount based on the composition is shown. However, the feature amount based on the object, the feature amount based on the texture, etc.
It is also possible to obtain another feature amount.

【0111】また、本画像モデル化装置で得られた特徴
量は、例えば、検索や、分類など、種々の情報処理に利
用することができる。
The feature quantity obtained by the image modeling apparatus can be used for various information processing such as retrieval and classification.

【0112】なお、以上の各機能は、ソフトウェアとし
ても実現可能である。また、本実施形態は、コンピュー
タに所定の手段を実行させるための(あるいはコンピュ
ータを所定の手段として機能させるための、あるいはコ
ンピュータに所定の機能を実現させるための)プログラ
ムを記録したコンピュータ読取り可能な記録媒体として
も実施することもできる。
Each of the above functions can be realized as software. Further, the present embodiment is readable by a computer in which a program for causing a computer to execute a predetermined means (or for causing a computer to function as a predetermined means or for causing a computer to realize a predetermined function) is recorded. It can also be implemented as a recording medium.

【0113】なお、本実施形態で例示した構成は一例で
あって、それ以外の構成を排除する趣旨のものではな
く、例示した構成の一部を他のもので置き換えたり、例
示した構成の一部を省いたり、例示した構成に別の機能
を付加したり、それらを組み合わせたりすることなどに
よって得られる別の構成も可能である。また、例示した
構成と論理的に等価な別の構成、例示した構成と論理的
に等価な部分を含む別の構成、例示した構成の要部と論
理的に等価な別の構成なども可能である。また、例示し
た構成と同一もしくは類似の目的を達成する別の構成、
例示した構成と同一もしくは類似の効果を奏する別の構
成なども可能である。また、本実施形態において、各種
構成部分についての各種バリエーションは、適宜組み合
わせて実施することが可能である。また、各実施形態
は、個別装置としての発明、個別装置内部の構成部分に
ついての発明、またはそれらに対応する方法の発明等、
種々の観点、段階、概念またはカテゴリに係る発明を包
含・内在するものである。従って、この発明の実施の形
態に開示した内容からは、例示した構成に限定されるこ
となく発明を抽出することができるものである。
Note that the configuration illustrated in the present embodiment is an example, and is not intended to exclude other configurations, and a part of the illustrated configuration may be replaced with another one or one of the illustrated configurations may be omitted. Other configurations that are obtained by omitting parts, adding other functions to the exemplified configurations, or combining them are possible. Further, another configuration that is logically equivalent to the illustrated configuration, another configuration including a portion that is logically equivalent to the illustrated configuration, and another configuration that is logically equivalent to the main part of the illustrated configuration are possible. is there. In addition, another configuration that achieves the same or similar purpose as the exemplified configuration,
Other configurations that have the same or similar effects as the exemplified configurations are possible. Further, in the present embodiment, various variations of various components can be appropriately combined and implemented. Further, each embodiment is an invention as an individual device, an invention about a component inside the individual device, or an invention of a method corresponding to them, etc.
It is intended to include and embrace inventions relating to various viewpoints, stages, concepts or categories. Therefore, the invention disclosed in the embodiments of the present invention can be extracted without being limited to the exemplified configurations.

【0114】本発明は、上述した実施の形態に限定され
るものではなく、その技術的範囲において種々変形して
実施することができる。
The present invention is not limited to the above-described embodiments, but can be implemented with various modifications within the technical scope thereof.

【0115】[0115]

【発明の効果】本発明によれば、画像データを、特定の
目的、個人、状況に適応させるため、様々なパラメータ
を調節することによって、モデル化方法を操作すること
ができる。
According to the present invention, the modeling method can be manipulated by adjusting various parameters to adapt the image data to a particular purpose, individual or situation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態に係る画像モデル化装置の
構成例を示す図
FIG. 1 is a diagram showing a configuration example of an image modeling device according to an embodiment of the present invention.

【図2】同実施形態に係る処理手順の一例を示すフロー
チャート
FIG. 2 is a flowchart showing an example of a processing procedure according to the embodiment.

【図3】同実施形態における色に基づくモデル化におけ
るイメージカラーの抽出のための処理手順の一例を示す
フローチャート
FIG. 3 is a flowchart showing an example of a processing procedure for extracting an image color in color-based modeling according to the first embodiment.

【図4】同実施形態における構図に基づくモデル化にお
ける構図の切り出しのための処理手順の一例を示すフロ
ーチャート
FIG. 4 is a flowchart showing an example of a processing procedure for cutting out a composition in modeling based on the composition in the embodiment.

【図5】同実施形態における画像モデル化装置への入力
となる画像の一例を示す図
FIG. 5 is a diagram showing an example of an image which is an input to the image modeling device in the embodiment.

【図6】同実施形態における色に基づくモデル化への入
力となるパラメータ情報の一例を示す図
FIG. 6 is a diagram showing an example of parameter information which is an input to the color-based modeling in the embodiment.

【図7】同実施形態におけるヒストグラムに関する処理
の例について説明するための図
FIG. 7 is a diagram for explaining an example of processing related to a histogram according to the same embodiment.

【図8】同実施形態における構図に基づくモデル化への
入力となる制約条件の一例を示す図
FIG. 8 is a diagram showing an example of a constraint condition which is an input to modeling based on the composition in the embodiment.

【図9】同実施形態におけるリスト構造に処理結果を記
述する例を示す図
FIG. 9 is a diagram showing an example of describing a processing result in a list structure according to the same embodiment.

【図10】図5の入力画像データを分割した例を示す図10 is a diagram showing an example in which the input image data of FIG. 5 is divided.

【図11】同実施形態における構図に基づくモデル化へ
の入力となるパラメータ情報の一例を示す図
FIG. 11 is a diagram showing an example of parameter information which is an input to modeling based on the composition in the embodiment.

【図12】図10の入力画像データをさらに分割した例
を示す図
FIG. 12 is a diagram showing an example in which the input image data of FIG. 10 is further divided.

【図13】同実施形態におけるリスト構造に処理結果を
記述する例を示す図
FIG. 13 is a diagram showing an example of describing a processing result in a list structure according to the same embodiment.

【図14】同実施形態におけるイメージカラー特徴量の
表示例を示す図
FIG. 14 is a view showing a display example of image color feature amounts in the same embodiment.

【図15】同実施形態におけるイメージカラー特徴量の
表示例を示す図
FIG. 15 is a diagram showing a display example of image color feature amounts in the same embodiment.

【符号の説明】[Explanation of symbols]

1…画像データ入力部 2…パラメータ入力部 3…カラーリスト作成部 4…登録色限定部 5…目立つ度合い計算部 6…イメージカラー抽出部 7…制約条件読み取り部 8…分割方向・位置決定部 9…再帰的分割適用部 10…領域特徴量計算部 11…抽出結果表示部 1 ... Image data input section 2 ... Parameter input section 3 ... Color list creation section 4 ... Registered color limited section 5 ... Conspicuousness calculation section 6 ... Image color extraction unit 7 ... Constraint condition reading unit 8 ... Division direction / position determination unit 9 ... Recursive division application unit 10 ... Area feature amount calculation unit 11 ... Extraction result display section

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 諸原雄大外3名,テキスタイルデザイ ン画像におけるイメージ・カラーの選定 法,情報処理学会論文誌,1995年 2月 15日,Vol .36, No. 2,p p. 329−337 山本英典外3名,色情報の空間分布を 考慮した類似画像検索,電子情報通信学 会技術報告IE98−155〜169,1999年 2月 3日,Vol. 98, No. 576,pp. 45−50 吉田香外3名,主観的背景を考慮した データベース検索システムの提案,電子 情報通信学会技術研究報告MVE97−40 〜56,1997年 7月24日,Vol. 97, No. 206,pp. 17−24 (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 G06F 17/30 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) References Yudai Morohara, 3 people, Selection of image color for textile design images, Journal of Information Processing Society of Japan, February 15, 1995, Vol. 36, No. 2, pp. 329-337 Hidenori Yamamoto, 3 people, Similar image retrieval considering spatial distribution of color information, IEICE Technical Report IE98-155-169, February 3, 1999, Vol. 98, No. 576, pp. 45-50 Kaoru Yoshida, Proposal of database retrieval system considering subjective background, IEICE Technical Report MVE97-40-56, July 24, 1997, Vol. 97, No. 206, pp. 17-24 (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 7 /00-7/60 G06T 1/00 G06F 17/30

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】画像データを入力とし該画像データが表示
されたときに持つ感性的な表現内容を示す特徴量を抽出
する画像処理装置であって、 画像データを入力する第1の入力手段と、 入力された 前記画像データを感性に関係する基準で分割
する分割処理を行って、前記特徴量として、該画像デー
タを分割する分割線の角度および位置を特定可能とする
分割線情報を抽出する抽出手段と、 前記分割処理における、 分割方向についての分割順序に
関する第1の制約条件と、各分割方向に係る分割線につ
き許容される角度の範囲に関する第2の制約条件とを示
す制約条件情報を入力する第2の入力手段とを備え、 前記抽出手段は、前記第1及び第2の制約条件の範囲内
で、前記分割線情報を抽出することを特徴とする画像処
理装置。
1. Inputting image data and displaying the image data
Extracts the features that indicate the emotional expression content
In the image processing apparatus, the first input unit for inputting the image data and the dividing process for dividing the input image data by a criterion relating to the sensitivity are used as the feature amount.
It is possible to specify the angle and position of the dividing line dividing the data
The extraction means for extracting the dividing line information, the first constraint condition regarding the dividing order in the dividing direction in the dividing process, and the dividing line relating to each dividing direction.
And the second constraint condition regarding the range of allowable angles.
And a second input means for inputting to constraint information, the extracting means, within said first and second constraints, you and extracting the divided WASH paper image Image processing device.
【請求項2】前記抽出手段は、所定の分割条件を満たす
間、再帰的に分割を繰り返すことを特徴とする請求項
に記載の画像処理装置。
Wherein said extraction means, claim 1, characterized in that repeated between predetermined splitting condition is satisfied, the recursively division
The image processing device according to item 1.
【請求項3】前記分割条件を、分割された領域の面積が
しきい値以上であること、または分割される前の領域内
の色合いの分散と分割された後の2つの領域間の色合い
の分散とで定義される分割の強さを示す評価値がしきい
値以上であることとすることを特徴とする請求項に記
載の画像処理装置。
3. The division condition is that the area of the divided area is equal to or larger than a threshold value, or the distribution of the hue in the area before the division and the hue between the two areas after the division. The image processing apparatus according to claim 2 , wherein an evaluation value that indicates the strength of division defined by variance is equal to or greater than a threshold value.
【請求項4】前記抽出手段は、前記画像データを分割し
て得られた部分的な領域についての色に関する属性情報
を抽出することを特徴とする請求項に記載の画像処理
装置。
4. The image processing apparatus according to claim 1 , wherein the extraction means extracts attribute information about a color of a partial area obtained by dividing the image data.
【請求項5】前記第1の制約条件は、最初に行う分割に
係る分割方向と、この分割により得られた各部分的な領
域それぞれについて次に行う分割に係る分割方向とを記
述したものであることを特徴とする請求項1に記載の画
像処理装置。
5. The first constraint condition is that the first division is performed.
Such division direction and each partial area obtained by this division
Describe the division direction for the next division for each area.
The image according to claim 1, characterized in that
Image processing device.
【請求項6】前記第1の制約条件は、先行して行う分割
に係る分割方向と、この分割により得られた各部分的な
領域それぞれについて後続して行う分割に係る分割方向
とを記述することを、複数階層にわたって行ったもので
あることを特徴とする請求項1に記載の画像処理装置。
6. The first constraint condition is division performed in advance.
Direction of division, and each partial obtained by this division
Division direction for subsequent division for each area
Is described over multiple layers.
The image processing apparatus according to claim 1, wherein the image processing apparatus is provided.
【請求項7】前記分割方向は、画像データを横の分割線
で分割する方向、画像データを縦の分割線で分割する方
向、または画像データを斜めの分割線で分割する方向で
あり、前記第2の制約条件は、前記 横の分割線に許容される角
度の範囲、前記縦の分割線に許容される角度の範囲、お
よび前記斜めの分割線に許容される角度の範囲を記述し
たものであることを特徴とする請求項1に記載の画像処
理装置。
Wherein said dividing direction is a direction to divide the direction of dividing the image data next to the dividing line, the direction to divide the image data in the vertical dividing line, or the image data at an oblique dividing lines, wherein the second constraint is to describe a range of angle allowed to the next acceptable angle range dividing line, acceptable angular range to the vertical dividing line, and the diagonal dividing line
The image processing device according to claim 1, characterized in that
Processing equipment.
【請求項8】画像データを入力とし該画像データが表示
されたときに持つ感性的な表現内容を示す特徴量を抽出
する画像処理方法であって、 画像データを入力する第1の入力ステップと、 入力された前記画像データを感性に関係する基準で分割
する分割処理を行って、前記特徴量として、該画像デー
タを分割する分割線の角度および位置を特定可能とする
分割線情報を抽出する抽出ステップと、 前記分割処理における、分割方向についての分割順序に
関する第1の制約条件と、各分割方向に係る分割線につ
き許容される角度の範囲に関する第2の制約条件とを示
す制約条件情報を入力する第2の入力ステップとを有
し、 前記抽出ステップは、前記第1及び第2の制約条件の範
囲内で、前記分割線情報を抽出することを特徴とする画
像処理方法。
8. Inputting image data and displaying the image data
Extracts the features that indicate the emotional expression content
An image processing method including: a first input step of inputting image data, and dividing the input image data by a criterion relating to sensitivity
Image data as the feature amount.
It is possible to specify the angle and position of the dividing line that divides the data
The extraction step of extracting the dividing line information and the division order in the division direction in the division processing
Regarding the first constraint condition regarding the
And the second constraint condition regarding the range of allowable angles.
Second input step for inputting constraint condition information
However, in the extracting step, the range of the first and second constraint conditions is
An image characterized by extracting the dividing line information in the area
Image processing method.
【請求項9】画像データを入力とし該画像データが表示
されたときに持つ感性的な表現内容を示す特徴量を抽出
する画像処理装置としてコンピュータを機能させるため
のプログラムを記録したコンピュータ読取り可能な記録
媒体であって、 画像データを入力する第1の入力ステップと、 入力された前記画像データを感性に関係する基準で分割
する分割処理を行って、前記特徴量として、該画像デー
タを分割する分割線の角度および位置を特定可能とする
分割線情報を抽出する抽出ステップと、 前記分割処理における、分割方向についての分割順序に
関する第1の制約条件と、各分割方向に係る分割線につ
き許容される角度の範囲に関する第2の制約条件とを示
す制約条件情報を入力する第2の入力ステップとをコン
ピュータに実行させ、 前記抽出ステップでは、前記第1及び第2の制約条件の
範囲内で、前記分割線情報を抽出させるためのプログラ
ムを記録したコンピュータ読取り可能な記録媒体。
9. Inputting image data and displaying the image data
Extracts the features that indicate the emotional expression content
To make a computer function as an image processing device
A computer-readable record that records the program
A medium, a first input step of inputting image data, and dividing the input image data by a criterion relating to sensitivity.
Image data as the feature amount.
It is possible to specify the angle and position of the dividing line that divides the data
The extraction step of extracting the dividing line information and the division order in the division direction in the division processing
Regarding the first constraint condition regarding the
And the second constraint condition regarding the range of allowable angles.
The second input step for inputting the constraint condition information.
Computer, and in the extracting step, the first and second constraint conditions
Program for extracting the dividing line information within the range
A computer-readable recording medium in which a program is recorded.
JP2000277124A 2000-09-12 2000-09-12 Image processing apparatus, image processing method, and recording medium Expired - Fee Related JP3492990B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000277124A JP3492990B2 (en) 2000-09-12 2000-09-12 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000277124A JP3492990B2 (en) 2000-09-12 2000-09-12 Image processing apparatus, image processing method, and recording medium

Publications (2)

Publication Number Publication Date
JP2002092610A JP2002092610A (en) 2002-03-29
JP3492990B2 true JP3492990B2 (en) 2004-02-03

Family

ID=18762503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000277124A Expired - Fee Related JP3492990B2 (en) 2000-09-12 2000-09-12 Image processing apparatus, image processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP3492990B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3562516B2 (en) * 2002-06-27 2004-09-08 富士ゼロックス株式会社 Image impression evaluation device, image impression evaluation method, and image impression evaluation program
JP4882523B2 (en) * 2006-06-01 2012-02-22 富士ゼロックス株式会社 Document impression evaluation apparatus and document impression evaluation program
JP4807148B2 (en) * 2006-06-01 2011-11-02 富士ゼロックス株式会社 Document impression evaluation apparatus and document impression evaluation program
JP4993678B2 (en) * 2006-10-04 2012-08-08 一般財団法人電力中央研究所 Interactive moving image monitoring method, interactive moving image monitoring apparatus, and interactive moving image monitoring program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
吉田香外3名,主観的背景を考慮したデータベース検索システムの提案,電子情報通信学会技術研究報告MVE97−40〜56,1997年 7月24日,Vol. 97, No. 206,pp. 17−24
山本英典外3名,色情報の空間分布を考慮した類似画像検索,電子情報通信学会技術報告IE98−155〜169,1999年 2月 3日,Vol. 98, No. 576,pp. 45−50
諸原雄大外3名,テキスタイルデザイン画像におけるイメージ・カラーの選定法,情報処理学会論文誌,1995年 2月15日,Vol .36, No. 2,pp. 329−337

Also Published As

Publication number Publication date
JP2002092610A (en) 2002-03-29

Similar Documents

Publication Publication Date Title
US7760956B2 (en) System and method for producing a page using frames of a video stream
US5471535A (en) Method for detecting a contour of a given subject to be separated from images and apparatus for separating a given subject from images
US7340097B2 (en) Image processing apparatus, image processing method, and recording medium
US6728400B1 (en) Apparatus, method, and storage medium for setting an extraction area in an image
US20070025637A1 (en) Retargeting images for small displays
JP3690391B2 (en) Image editing apparatus, image trimming method, and program
US20080144934A1 (en) Process for the analysis of the positioning of products on store shelves
KR20010005452A (en) Digital video searching device and method thereof
JP3332166B2 (en) Video search device
US20220270232A1 (en) Apparatus for adjusting parameter related to defect detection for image processing for image processing, method for information processing, and program
JP4052128B2 (en) Image trimming apparatus, image trimming method, and program
JP3492990B2 (en) Image processing apparatus, image processing method, and recording medium
KR101242659B1 (en) Method for searching images
JP4977448B2 (en) Method and system for generating polygon boundary definitions for image objects
JP3492991B2 (en) Image processing apparatus, image processing method, and recording medium
JPH11510351A (en) Apparatus and method for object tracking
JP3576759B2 (en) Image processing device
CN113920236A (en) Face customization method and device, electronic equipment and readable medium
US20040164982A1 (en) Method and apparatus for editing three-dimensional model, and computer readable medium
JP3065332B2 (en) Image processing method
JP2824994B2 (en) Color image processing equipment
JPH05108728A (en) Filing and retrieving method for picture
JPH05336346A (en) Image processing method and storage device
JPH08167028A (en) Image processing method
US20130044133A1 (en) Determination of blank sectors in digital images

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081114

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091114

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131114

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees