JPH06243179A - Method and device for picture retrieval - Google Patents

Method and device for picture retrieval

Info

Publication number
JPH06243179A
JPH06243179A JP5024568A JP2456893A JPH06243179A JP H06243179 A JPH06243179 A JP H06243179A JP 5024568 A JP5024568 A JP 5024568A JP 2456893 A JP2456893 A JP 2456893A JP H06243179 A JPH06243179 A JP H06243179A
Authority
JP
Japan
Prior art keywords
image
display time
information indicating
picture
complexity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5024568A
Other languages
Japanese (ja)
Inventor
Satoru Hashimoto
哲 橋本
Masashi Kida
雅士 木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP5024568A priority Critical patent/JPH06243179A/en
Publication of JPH06243179A publication Critical patent/JPH06243179A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To increase the picture retrieval speed and to surely perform retrieval by extracting information indicating the complexity of a picture from a picture storage means together with the pertinent picture and controlling the visible display time of the pertinent picture based on information indicating the complexity of the picture. CONSTITUTION:When plural pictures are stored in a picture storage means 7, information indicating the complexities of pictures are stored there also. When pertinent pictures are successively extracted based on a prescribed retrieval condition and are visibly displayed on a display means 16 to retrieve a picture, information indicating the complexities of pictures are extracted together with pertinent pictures, and the visible display times of pertinent pictures are controlled based on these information. Thus, it is unnecessary to set the display time in comparison with the case that an operator sets the display time of each picture, and an optimum display time adapted to the information volume can be set for each picture. As the result, the picture retrieval speed is increased and the retrieval is surely performed as the whole.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は画像検索方法およびそ
の装置に関し、さらに詳細にいえば、複数の画像を画像
格納手段に格納しておき、所定の検索条件に基づいて、
画像格納手段から順次該当する画像を抽出して表示手段
により可視的に表示する画像検索方法およびその装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image retrieval method and an apparatus therefor, and more specifically, it stores a plurality of images in an image storage means, and based on a predetermined retrieval condition,
The present invention relates to an image search method and apparatus for sequentially extracting corresponding images from image storage means and visually displaying them on a display means.

【0002】[0002]

【従来の技術】近年の画像処理技術の進展、光ディスク
に代表される大容量蓄積媒体の普及に伴なって、画像デ
ータベースの作成および作成された画像データベースを
用いる画像検索の研究が進められている。上記画像デー
タベースを用いる画像検索の一手法として、蓄積されて
いる画像を順次読み出して、本の頁をめくるように順次
可視的に表示する方法が提案されている。このような画
像検索方法のうち、最も簡単な方法は、各画像毎の表示
時間を画一的に設定しておく方法である。また、文書検
索方法において適用されている、オペレータによる表示
時間の設定を許容する方法(特開平3−14178号公
報参照)を画像検索方法に適用することも考えられる。
2. Description of the Related Art With the recent development of image processing technology and the widespread use of large-capacity storage media represented by optical discs, research on image database creation and image search using the created image database is under way. . As a method of image retrieval using the image database, a method has been proposed in which accumulated images are sequentially read out and sequentially sequentially displayed as if turning pages of a book. Of these image retrieval methods, the simplest method is to uniformly set the display time for each image. It is also conceivable to apply the method (see Japanese Patent Laid-Open No. 3-14178) that allows the operator to set the display time, which is applied in the document search method, to the image search method.

【0003】そして、前者の方法を採用すれば、表示時
間の設定作業が簡単で、しかも本の頁をめくるように画
像を順次可視的に表示できる。また、後者の方法を採用
すれば、表示時間の設定作業が繁雑化するが、画像の情
報量の多少に応じて表示時間を設定できるので、画像検
索を行ないやすくできる。
If the former method is adopted, the setting work of the display time is easy, and the images can be sequentially and visually displayed like turning pages of a book. Further, if the latter method is adopted, the work of setting the display time becomes complicated, but since the display time can be set according to the amount of image information, the image search can be performed easily.

【0004】[0004]

【発明が解決しようとする課題】上記前者の方法を採用
すれば、画像に含まれる情報量の多少に拘らず、全ての
画像を所定の時間だけ表示することになるので、情報量
が著しく少ない画像に関しては表示時間が長すぎること
になるとともに、情報量が著しく多い画像に関しては表
示時間が短くて、十分に画像に含まれる情報を視覚的に
把握できないことになるという不都合がある。
If the former method is adopted, all the images are displayed for a predetermined time regardless of the amount of information contained in the images, so the amount of information is extremely small. There is an inconvenience that the display time is too long for an image and the display time is short for an image having a remarkably large amount of information, which makes it difficult to visually grasp information contained in the image.

【0005】また、後者の方法を採用すれば、上記前者
の方法をある程度解消させることができるのである。し
かし、予め分類された画像データベースに適用して、画
像の種別毎に表示時間を設定することになるのであるか
ら、ランダムな画像が格納された画像データベースに対
して適用することは殆ど不可能である。即ち、ランダム
に格納された各画像の情報量は何ら規則性を有していな
いのであるから、画像毎にオペレータが情報量の多少を
判別して表示時間を設定しなければならなくなり、格納
された画像の数が増加すれば、全体としての表示時間設
定作業に著しく長時間がかかってしまい、実用上はこの
ような表示時間の設定は到底不可能である。また、情報
量の多少をオペレータが判別することになるので、個人
差が生じ、ある人には最適の表示時間であっても、他の
人には不適当な表示時間になってしまうという不都合も
ある。
If the latter method is adopted, the former method can be solved to some extent. However, since it is applied to a pre-classified image database and the display time is set for each image type, it is almost impossible to apply it to an image database in which random images are stored. is there. That is, since the information amount of each image stored at random has no regularity, the operator has to determine the amount of information for each image and set the display time, which is stored. If the number of the displayed images increases, it takes a significantly long time to set the display time as a whole, and it is practically impossible to set such a display time. In addition, since the operator determines the amount of information, there is an individual difference, and even if the display time is optimal for one person, the display time is inappropriate for another person. There is also.

【0006】以上から明らかなように、オペレータによ
る表示時間の設定を不要にでき、しかも画像検索の高速
化および確実化(確実に所望の画像を検索できること)
を両立できる画像検索方法は存在していなかった。
As is clear from the above, it is possible to eliminate the need for the operator to set the display time, and to speed up and ensure the image retrieval (the desired image can be retrieved reliably).
There was no image retrieval method that can achieve both.

【0007】[0007]

【発明の目的】この発明は上記の問題点に鑑みてなされ
たものであり、画像がランダムに格納されているか否か
に拘らず、各画像の情報量に対応させて画像毎の表示時
間を自動的に設定でき、画像検索の高速化および検索の
確実化を両立させることができる新規な画像検索方法お
よびその装置を提供することを目的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and regardless of whether or not images are randomly stored, the display time for each image is set in correspondence with the information amount of each image. It is an object of the present invention to provide a novel image search method and apparatus that can be automatically set and can achieve both high-speed image search and reliable search.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
めの、請求項1の画像検索方法は、各画像を画像格納手
段に格納するに当って、画像の複雑さを示す情報をも画
像格納手段に格納しておき、画像格納手段から該当する
画像と共に画像の複雑さを示す情報を抽出し、画像の複
雑さを示す情報に基づいて該当する画像の可視的表示時
間を制御する方法である。
In order to achieve the above-mentioned object, the image retrieval method of claim 1 stores each image in the image storage means, and also stores information indicating the complexity of the image. A method of storing the image in the storage means, extracting information indicating the complexity of the image together with the corresponding image from the image storage means, and controlling the visual display time of the corresponding image based on the information indicating the complexity of the image. is there.

【0009】請求項2の画像検索方法は、複雑さを示す
情報として、画像中における境界線の占有率を採用する
方法である。請求項3の画像検索方法は、複雑さを示す
情報として、画像中における、複数の代表色で規定され
る領域の数を採用する方法である。請求項4の画像検索
装置は、画像格納手段として、格納された画像と共に画
像の複雑さを示す情報を格納するものを採用しており、
しかも、画像格納手段から該当する画像とともに画像の
複雑さを示す情報を抽出する抽出手段と、画像の複雑さ
を示す情報に基づいて該当する画像の可視的表示時間を
制御する表示時間制御手段とを含んでいる。
The image search method of claim 2 is a method of adopting the occupancy rate of the boundary line in the image as the information indicating the complexity. The image search method of claim 3 is a method of adopting, as the information indicating the complexity, the number of regions defined by a plurality of representative colors in the image. The image search device according to claim 4 employs, as the image storage means, one that stores information indicating the complexity of the image together with the stored image,
Moreover, an extraction unit that extracts information indicating the complexity of the image together with the corresponding image from the image storage unit, and a display time control unit that controls the visible display time of the corresponding image based on the information indicating the complexity of the image. Is included.

【0010】[0010]

【作用】請求項1の画像検索方法であれば、複数の画像
を画像格納手段に格納するに当って、画像の複雑さを示
す情報をも画像格納手段に格納しておき、所定の検索条
件に基づいて、画像格納手段から順次該当する画像を抽
出して表示手段により可視的に表示することにより画像
検索を行なう場合に、画像格納手段から該当する画像と
共に画像の複雑さを示す情報を抽出し、画像の複雑さを
示す情報に基づいて該当する画像の可視的表示時間を制
御するのであるから、オペレータが各画像の表示時間を
設定する場合と異なり、表示時間の設定作業を不要にで
きるとともに、画像毎に情報量に見合った最適の表示時
間を設定できる。この結果、全体として、画像検索の高
速化および画像検索の確実化を両立できる。
According to the image retrieval method of claim 1, when storing a plurality of images in the image storing means, information indicating the complexity of the images is also stored in the image storing means, and the predetermined retrieval condition is satisfied. Based on the above, when performing an image search by sequentially extracting the corresponding images from the image storage means and visually displaying them on the display means, the information indicating the complexity of the images is extracted from the image storage means together with the corresponding images. However, since the visual display time of the corresponding image is controlled based on the information indicating the complexity of the image, unlike the case where the operator sets the display time of each image, the work of setting the display time can be eliminated. At the same time, it is possible to set the optimum display time for each image in accordance with the amount of information. As a result, as a whole, both high-speed image search and reliable image search can be achieved.

【0011】請求項2の画像検索方法であれば、複雑さ
を示す情報として、画像中における境界線の占有率を採
用しているのであるから、各画像を画像格納手段に格納
するに当って、境界線検出および境界線画素数の算出等
を行なうことにより、複雑さを示す情報を自動的に得る
ことができる。また、このようにして得られた境界線の
占有率は、各画像毎に客観的に定まる値であり、恣意が
介入する余地が全くないので、画像検索の高速化および
画像検索の確実化を両立できる。
According to the image retrieval method of claim 2, since the occupancy ratio of the boundary line in the image is adopted as the information indicating the complexity, each image is stored in the image storage means. By detecting the boundary line and calculating the number of pixels of the boundary line, information indicating the complexity can be automatically obtained. In addition, the occupancy of the boundary obtained in this way is a value that is objectively determined for each image, and there is no room for arbitrary intervention, so speed up image search and ensure image search. Can be compatible.

【0012】請求項3の画像検索方法は、複雑さを示す
情報として、画像中における、複数の代表色で規定され
る領域の数を採用しているのであるから、各画像を画像
格納手段に格納するに当って、領域分割および分割領域
数の算出等を行なうことにより、複雑さを示す情報を自
動的に得ることができる。また、このようにして得られ
た領域の数は、各画像毎に客観的に定まる値であり、恣
意が介入する余地が全くないので、画像検索の高速化お
よび画像検索の確実化を両立できる。
According to the image retrieval method of the third aspect, since the number of areas defined by a plurality of representative colors in the image is used as the information indicating the complexity, each image is stored in the image storage means. When storing, information indicating complexity can be automatically obtained by performing area division and calculation of the number of divided areas. In addition, the number of regions thus obtained is a value that is objectively determined for each image, and there is no room for arbitrary intervention, so both high-speed image search and reliable image search can be achieved. .

【0013】請求項4の画像検索装置は、複数の画像を
画像格納手段に格納しておき、所定の検索条件に基づい
て、画像格納手段から順次該当する画像を抽出して表示
手段により可視的に表示することにより画像検索を行な
う場合に、画像格納手段として、格納された画像と共に
画像の複雑さを示す情報を格納するものを採用し、抽出
手段によって、画像格納手段から該当する画像とともに
画像の複雑さを示す情報を抽出し、表示時間制御手段に
より、画像の複雑さを示す情報に基づいて該当する画像
の可視的表示時間を制御するのであるから、オペレータ
が各画像の表示時間を設定する場合と異なり、表示時間
の設定作業を不要にできるとともに、画像毎に情報量に
見合った最適の表示時間を設定できる。この結果、全体
として、画像検索の高速化および画像検索の確実化を両
立できる。
According to another aspect of the image retrieval apparatus of the present invention, a plurality of images are stored in the image storage means, the corresponding images are sequentially extracted from the image storage means based on a predetermined retrieval condition, and are displayed by the display means. When an image search is performed by displaying the image on the screen, the image storage means that stores information indicating the complexity of the image together with the stored image is adopted, and the extraction means uses the image together with the corresponding image from the image storage means. The information indicating the complexity of the image is extracted, and the display time control means controls the visible display time of the corresponding image based on the information indicating the complexity of the image. Therefore, the operator sets the display time of each image. Unlike the above case, the work of setting the display time can be eliminated, and the optimum display time can be set for each image according to the amount of information. As a result, as a whole, both high-speed image search and reliable image search can be achieved.

【0014】[0014]

【実施例】以下、実施例を示す添付図面によって詳細に
説明する。図1はこの発明の画像検索方法の一実施例の
うち、画像データベースに画像を登録する処理を説明す
るフローチャートであり、図2は、図1のフローチャー
トの処理により得られた画像データベースに基づいて画
像を検索する処理を説明するフローチャートである。
Embodiments will be described in detail below with reference to the accompanying drawings showing embodiments. FIG. 1 is a flow chart for explaining a process of registering an image in an image database in one embodiment of the image search method of the present invention, and FIG. 2 is based on the image database obtained by the process of the flow chart of FIG. It is a flow chart explaining processing which searches for an image.

【0015】先ず、図1のフローチャートを説明する。
ステップSP1において、原画像を構成する各画素の色
データ(例えば、RGBデータ)を色度データ(例え
ば、L*a*b*データ)に変換し、ステップSP2に
おいて、メディアンフィルタ等を用いて平滑化処理を施
し、ステップSP3において、平滑化後の画像から境界
線を検出し、ステップSP4において、検出された全て
の境界線の全画素に対する占有率を算出し、ステップS
P5において、原画像、およびキーワード情報と共に境
界線占有率を光ディスク等の記録媒体に格納する。尚、
以上の一連の処理は、原画像毎に行なわれる。
First, the flow chart of FIG. 1 will be described.
In step SP1, color data (for example, RGB data) of each pixel forming the original image is converted into chromaticity data (for example, L * a * b * data), and in step SP2, smoothing is performed using a median filter or the like. The borderline is detected from the smoothed image in step SP3, the occupancy ratio of all the detected borderlines to all pixels is calculated in step SP4, and step S4 is performed.
At P5, the boundary occupancy rate is stored in the recording medium such as an optical disk together with the original image and the keyword information. still,
The above series of processing is performed for each original image.

【0016】さらに詳細に説明する。上記ステップSP
1における変換処理は、例えば、対象色刺激の3刺激値
をX,Y,Zとし、照明用光源の3刺激値をX0,Y0
0(光源毎に定まる固有の値)とすれば、以下の演算
処理を行なうことにより達成できる。即ち、 X=0.607×R+0.174×G+0.201×B Y=0.299×R+0.587×G+0.114×B Z=0.066×G+1.117×B の演算を行なって対象色刺激の3刺激値X,Y,Zを
得、次いで、 L*=116(Y/Y01/3−16 a*=500[(X/X01/3−(Y/Y01/3] b*=200[(X/X01/3−(Z/Z01/3] の演算を行なってL*,a*,b*値を得ることができ
る。
Further details will be described. Above step SP
In the conversion process in 1, for example, the tristimulus values of the target color stimulus are X, Y, and Z, and the tristimulus values of the illumination light source are X 0 , Y 0 ,
Z 0 (a unique value determined for each light source) can be achieved by performing the following arithmetic processing. That is, X = 0.607 x R + 0.174 x G + 0.201 x B Y = 0.299 x R + 0.587 x G + 0.114 x B Z = 0.066 x G + 1.117 x B obtained tristimulus values X of the stimulus, Y, and Z, then, L * = 116 (Y / Y 0) 1/3 -16 a * = 500 [(X / X 0) 1/3 - (Y / Y 0 ) 1/3] b * = 200 [ (X / X 0) 1/3 - (Z / Z 0) 1/3] by performing calculation of L *, a *, b * values can be obtained.

【0017】上記ステップSP2の平滑化処理は、例え
ば、図3中に(A)で示す1次元の観察窓または(B)
で示す2次元の観察窓を用い、観察窓に属する画素の濃
度の中央値で中央画素の濃度値を置換する処理を各画素
毎に行なうことにより達成できる。上記ステップSP3
の境界線検出処理は、例えば、微分処理および閾値処理
を施すことにより境界領域を得、次いで、境界領域を細
線化することにより達成できる。さらに詳細に説明する
と、境界領域を得る処理は、図4に示す演算窓を設定し
ておいて、数1の演算を行なうことにより元の画像f
(x,y)の色差微分値D(x,y)を算出する。
The smoothing process in step SP2 is performed by, for example, the one-dimensional observation window shown in (A) in FIG. 3 or (B).
This can be achieved by using a two-dimensional observation window indicated by and performing the process of replacing the density value of the central pixel with the median value of the density of the pixels belonging to the observation window for each pixel. Step SP3 above
The boundary line detection process of 1 can be achieved by, for example, performing a differential process and a threshold process to obtain a boundary region, and then thinning the boundary region. More specifically, in the process of obtaining the boundary area, the calculation window shown in FIG.
The color difference differential value D (x, y) of (x, y) is calculated.

【0018】[0018]

【数1】 [Equation 1]

【0019】但し、Di={(Li*−L*)2+(ai
−a*)2+(bi*−b*)21/2、(L*a*b
*)はf(x,y)のL*a*b*値、(Ln*an*b
n*)はi=nでのL*a*b*値である。そして、数
1の演算により得られた色差微分値D(x,y)と所定
の閾値THRとの大小を判別し、D(x,y)≧THR
の場合に微分画像g(x,y)=1に設定し、D(x,
y)<THRの場合に微分画像g(x,y)=0に設定
することにより、境界部分のみが“1”で、他の部分が
“0”の微分画像g(x,y)を得ることができる。
However, D i = {(L i * -L *) 2 + (a i *
-A *) 2 + (bi * -b *) 2 } 1/2 , (L * a * b
*), L * a * b * values of f (x, y), ( L n * a n * b
n *) is the L * a * b * value at i = n. Then, the magnitude of the color difference differential value D (x, y) obtained by the calculation of Equation 1 and the predetermined threshold value THR is discriminated, and D (x, y) ≧ THR
In the case of, the differential image g (x, y) = 1 is set, and D (x,
By setting differential image g (x, y) = 0 when y) <THR, a differential image g (x, y) in which only the boundary portion is "1" and other portions are "0" is obtained. be able to.

【0020】境界領域を細線化する処理は、例えば次の
とおりである。図5中(A)で示すように、中心画素を
p0で表わし、中心画素に隣接する8画素を数2で表わ
す。
The processing for thinning the boundary area is as follows, for example. As shown in FIG. 5A, the central pixel is represented by p0, and the eight pixels adjacent to the central pixel are represented by Equation 2.

【0021】[0021]

【数2】 [Equation 2]

【0022】そして、第1ステップとして、中心画素p
0が数3に示す全ての条件を満足する場合にフラグを設
定し、全ての境界画素についての処理を行なった後に、
フラグが設定されている画素の値B(p)を“0”に設
定する。即ち、この処理により、右側および下側の境界
画素の値が“0”に設定される。
Then, as a first step, the central pixel p
When 0 satisfies all the conditions shown in Expression 3, a flag is set, and after processing for all boundary pixels,
The value B (p) of the pixel for which the flag is set is set to "0". That is, the value of the right and lower boundary pixels is set to "0" by this processing.

【0023】[0023]

【数3】 [Equation 3]

【0024】但し、S(p0)はp0の近傍画素の値B
(p1),B(p2),・・・,B(p8)をこの順に調
べたときの、画素値が“0”から“1”に変化している
回数である。具体的には、図5中(B)で示すように、
B(p2)=B(p5)=B(p6)=1である場合に
は、N(p0)=3,S(p0)=2となる。次いで、第
2ステップとして、中心画素p0が数4に示す全ての条
件を満足する場合にフラグを設定し、全ての境界画素に
ついての処理を行なった後に、フラグが設定されている
画素の値B(p)を“0”に設定する。即ち、この処理
により、左側および上側の境界画素の値が“0”に設定
される。
However, S (p 0 ) is the value B of the neighboring pixels of p 0
It is the number of times the pixel value changes from “0” to “1” when (p 1 ), B (p 2 ), ..., B (p 8 ) are examined in this order. Specifically, as shown by (B) in FIG.
When B (p 2 ) = B (p 5 ) = B (p 6 ) = 1, N (p 0 ) = 3 and S (p 0 ) = 2. Next, as a second step, a flag is set when the central pixel p0 satisfies all the conditions shown in Formula 4, and after processing for all boundary pixels, the value B of the flagged pixel is set. (P) is set to "0". That is, by this processing, the values of the left and upper boundary pixels are set to "0".

【0025】[0025]

【数4】 [Equation 4]

【0026】そして、線幅が“1”になるまで第1ステ
ップの処理および第2ステップの処理を反復する。上記
ステップSP4の占有率算出処理は、例えば、ステップ
SP3において得られた細線化処理後の微分画像g
(x,y)のうち値が“1”である画素の総数を得、微
分画像g(x,y)の総画素数で除算することにより達
成できる。
Then, the processing of the first step and the processing of the second step are repeated until the line width becomes "1". The occupation rate calculation process of step SP4 is performed by, for example, the differential image g after the thinning process obtained in step SP3.
This can be achieved by obtaining the total number of pixels whose value is “1” in (x, y) and dividing by the total number of pixels of the differential image g (x, y).

【0027】以上のようにして得られた占有率は、例え
ば、対応する画像のキーワード情報、画像データに対す
るポインタと共にキーワード管理テーブルに格納され
る。以上の説明から明らかなように、登録すべき画像を
指定し、または読み込むだけで、自動的に変換処理、平
滑化処理、境界線検出処理、および境界線の占有率算出
処理を行なって、キーワード情報等と共にキーワード管
理テーブル等に格納できるのであるから、オペレータの
恣意に影響されることなく客観的な占有率を得て格納で
きる。ここで、境界線の占有率が高ければ、境界線によ
り区分される対象が画像中に多数存在することになり、
逆に占有率が低ければ、境界線により区分される対象が
少ししか存在しないことになるのであるから、占有率に
より画像の複雑さをかなり高精度に表現できる。
The occupation rate obtained as described above is stored in the keyword management table together with the keyword information of the corresponding image and the pointer to the image data, for example. As is clear from the above description, by simply specifying or reading an image to be registered, conversion processing, smoothing processing, boundary line detection processing, and boundary line occupation rate calculation processing are performed automatically, Since it can be stored in the keyword management table or the like together with the information and the like, it can be stored with an objective occupation ratio obtained without being affected by the operator's will. Here, if the occupancy rate of the boundary line is high, it means that there are many objects that are divided by the boundary line in the image,
On the other hand, if the occupancy rate is low, there will be few objects that are divided by the boundary line, so that the occupancy rate can express the complexity of an image with high accuracy.

【0028】次いで、図2のフローチャートを説明す
る。頁めくり表示による画像検索が指示されれば、ステ
ップSP1において、オペレータが設定入力したキーワ
ード等に基づいて該当する表示対象画像のリストを得、
ステップSP2において、リストにしたがって画像デー
タを読み込むとともに、境界線の占有率を得、ステップ
SP3においてリスト中の全ての境界線の占有率に基づ
いて該当する画像の表示時間をそれぞれ算出し、ステッ
プSP4において、算出された時間だけ該当する画像を
可視的に表示する。次いで、ステップSP5において頁
めくり表示の終了が指示されたか否かを判別し、終了が
指示されていなければ、再びステップSP4の処理を行
なう。逆に、頁めくり表示の終了が指示されていれば、
そのまま一連の処理を終了する。
Next, the flowchart of FIG. 2 will be described. If the image search by the page turning display is instructed, in step SP1, a list of corresponding display target images is obtained based on the keyword set and input by the operator,
In step SP2, the image data is read according to the list, the occupation ratio of the boundary line is obtained, and the display time of the corresponding image is calculated based on the occupation ratios of all the boundary lines in the list in step SP3. At, the corresponding image is visually displayed for the calculated time. Then, in step SP5, it is determined whether or not the end of the page turning display is instructed. If the end is not instructed, the process of step SP4 is performed again. On the contrary, if the end of page turning display is instructed,
A series of processing is finished as it is.

【0029】上記ステップSP3における表示時間算出
処理は、例えば、境界線の占有率が“0”の画像に対す
る表示時間を基準時間として設定しておき、この基準時
間に対して、境界線の占有率に基づいて定まる定数を乗
算することにより達成できる。ここで、境界線の占有率
と定数との関係としては一次関数、二次以上の関数等が
例示できる。また、上記基準時間は変更不可能な値とし
て設定されていてもよいが、検索者の個人差を考慮し
て、変更可能な値として設定しておくことが好ましい。
In the display time calculation processing in step SP3, for example, the display time for an image whose boundary occupancy rate is "0" is set as a reference time, and the boundary line occupancy rate is set with respect to this reference time. It can be achieved by multiplying by a constant determined based on Here, as the relationship between the occupancy rate of the boundary line and the constant, a linear function, a quadratic function or the like can be exemplified. Further, the reference time may be set as a value that cannot be changed, but it is preferable to set it as a value that can be changed in consideration of individual differences among searchers.

【0030】上記ステップSP5における頁めくり表示
終了指示の判別は、例えば、検索者が可視的表示中の画
像を検索対象画像として選択したか否かに基づいて行な
えばよい。以上の説明から明らかなように、検索条件に
基づいて画像データベースから抽出される各画像を、境
界線の占有率に基づいて定まる時間だけ表示するのであ
るから、各画像の表示時間を必要最小限にでき、全体と
して所要時間を短縮できるとともに、検索対象画像の見
落しをなくして、画像検索の確実化を達成できる。
The determination of the page-turning display end instruction in step SP5 may be made based on, for example, whether or not the searcher has selected the image that is being visually displayed as the search target image. As is clear from the above description, each image extracted from the image database based on the search condition is displayed only for the time determined based on the occupancy ratio of the boundary line. Therefore, the required time can be shortened as a whole, and the image search can be surely achieved by not overlooking the image to be searched.

【0031】[0031]

【実施例2】図6はこの発明の画像検索方法の他の実施
例のうち、画像データベースに画像を登録する処理を説
明するフローチャートであり、図7は、図6のフローチ
ャートの処理により得られた画像データベースに基づい
て画像を検索する処理を説明するフローチャートであ
る。
[Embodiment 2] FIG. 6 is a flow chart for explaining the processing of registering an image in the image database in another embodiment of the image retrieval method of the present invention, and FIG. 7 is obtained by the processing of the flow chart of FIG. It is a flow chart explaining the processing which searches for an image based on the image database.

【0032】先ず、図6のフローチャートについて説明
する。ステップSP1において、原画像を構成する各画
素の色データ(例えば、RGBデータ)を色度データ
(例えば、L*a*b*データ)に変換し、ステップS
P2において、登録対象となる画像から複数の代表色
(画像中で出現頻度が高い色)を選出し、ステップSP
3において、選出されなかった色を最も近似できる代表
色で置換し、ステップSP4において代表色毎に部分画
像領域を得る。次いで、ステップSP5において視覚的
に画質変化が識別できない部分画像領域が存在するか否
かを判別し、視覚的に画質変化が識別できない部分画像
領域が存在している場合には、ステップSP6において
視覚的に画質変化が識別できない部分画像領域を何れか
の部分画像領域と統合し、再びステップSP5の判別を
行なう。上記ステップSP6において視覚的に画質変化
が識別できない部分画像領域が存在していないと判別さ
れた場合には、ステップSP7において各部分画像領域
の数を計数し、ステップSP8において部分画像領域数
を正規化し、ステップSP9において、原画像、および
キーワード情報と共に正規化領域数を光ディスク等の記
録媒体に格納する。尚、以上の一連の処理は、原画像毎
に行なわれる。
First, the flowchart of FIG. 6 will be described. In step SP1, color data (for example, RGB data) of each pixel forming the original image is converted into chromaticity data (for example, L * a * b * data), and step S1
In P2, a plurality of representative colors (colors that appear frequently in the image) are selected from the image to be registered, and step SP
In step 3, the unselected color is replaced with a representative color that can be most approximated, and in step SP4, a partial image area is obtained for each representative color. Then, in step SP5, it is determined whether or not there is a partial image area whose image quality change cannot be visually identified. If there is a partial image area whose image quality change cannot be visually identified, then in step SP6 The partial image area whose change in image quality cannot be identified is integrated with any partial image area, and the determination in step SP5 is performed again. If it is determined in step SP6 that there is no partial image area whose image quality change cannot be visually identified, the number of each partial image area is counted in step SP7, and the number of partial image areas is normalized in step SP8. In step SP9, the number of normalized areas is stored in the recording medium such as an optical disk together with the original image and the keyword information. The series of processes described above is performed for each original image.

【0033】さらに詳細に説明する。上記ステップSP
1,SP2,SP3の処理については、例えば、処理対
象画像の色データ(例えば、R,G,Bデータ)を色度
データ(例えば、L*a*b*データ)に変換した後
に、出現頻度が高い順に該当する色度値を代表色として
選出し、代表色として選出されなかった色については色
度図上で最も距離が短い代表色の色度値で置換する。
A more detailed description will be given. Above step SP
Regarding the processing of 1, SP2 and SP3, for example, after the color data (for example, R, G, B data) of the processing target image is converted into chromaticity data (for example, L * a * b * data), the appearance frequency The corresponding chromaticity values are selected as the representative color in descending order, and the colors not selected as the representative color are replaced with the chromaticity value of the representative color having the shortest distance on the chromaticity diagram.

【0034】上記ステップSP5の判別は、隣接する部
分画像領域間の色差と処理対象となる部分画像領域のサ
イズとに基づいて行なわれる。具体的には、種々の部分
画像領域を最も色差が小さい他の部分画像領域に統合し
て除去した場合に、全体として画質変化が視覚的に識別
できたか否かに基づいて図8に示す識別不能領域を作成
し、対象となる部分画像領域が図8に示す識別不能領域
に属するか否かに基づいて判別される。尚、図8におい
て横軸は領域サイズ(画素数×画素数)であり、縦軸は
隣接する部分画像領域との色差ΔEab´(例えば、C
IEの1976L*a*b*表色系の色差値の1/10
の値)である。上記識別不能領域を規定する境界線を関
数近似すると、領域サイズが6以下の場合には、ΔEa
b´=∞であり、領域サイズが6よりも大きい場合に
は、多数の被験者による識別結果に基づいて、領域サイ
ズが7,10,20,30,40,50,60,10
0,200,500のそれぞれに対応してΔEab´が
93,83,70,62,58,52,50,44,3
6,36となる点列が該当するので、Y=64・exp
(−0.026X)+36という関数で近似できる。但
し、Xは領域サイズ、YはΔEab´の値である。
The determination in step SP5 is made based on the color difference between the adjacent partial image areas and the size of the partial image area to be processed. Specifically, the identification shown in FIG. 8 is based on whether or not the image quality change can be visually identified as a whole when various partial image areas are integrated and removed to other partial image areas having the smallest color difference. An unreadable area is created, and it is determined based on whether the target partial image area belongs to the unidentifiable area shown in FIG. In FIG. 8, the horizontal axis represents the area size (the number of pixels × the number of pixels), and the vertical axis represents the color difference ΔEab ′ (for example, C
1/10 of the color difference value of IE's 1976L * a * b * color system
Value). When the boundary line defining the unidentifiable area is approximated by a function, when the area size is 6 or less, ΔEa
When b ′ = ∞ and the area size is larger than 6, the area size is 7, 10, 20, 30, 40, 50, 60, 10 based on the identification results by a large number of subjects.
ΔEab ′ is 93, 83, 70, 62, 58, 52, 50, 44, 3 corresponding to 0, 200, 500 respectively.
Since the point sequence of 6,36 is applicable, Y = 64 · exp
It can be approximated by a function of (-0.026X) +36. However, X is the area size and Y is the value of ΔEab ′.

【0035】上記ステップSP8の処理については、例
えば、領域数を画像の全画素数で除算することにより達
成できる。したがって、以上の一連の処理を行なうこと
により、原画像の画質を実質的に低下させることなく原
画像を複数の部分画像領域に分割でき、分割された部分
画像領域の数に基づいて正規化領域数を算出できる。そ
して、算出された正規化領域数を原画像、キーワード情
報等と共に光ディスク等の蓄積媒体に格納して、検索の
ための画像データベースを完成することができる。この
結果、オペレータの恣意に影響されることなく客観的な
占有率を得て格納できる。ここで、正規化領域数が高け
れば、各部分画像領域毎の対象が画像中に多数存在する
ことになり、逆に正規化領域数が低ければ、各部分画像
領域毎の対象が少ししか存在しないことになるのである
から、正規化領域数により画像の複雑さをかなり高精度
に表現できる。
The processing in step SP8 can be achieved by, for example, dividing the number of regions by the total number of pixels in the image. Therefore, by performing the above-described series of processing, the original image can be divided into a plurality of partial image areas without substantially degrading the image quality of the original image, and the normalized area is divided based on the number of the divided partial image areas. The number can be calculated. Then, the calculated normalized area number can be stored in a storage medium such as an optical disk together with the original image, keyword information, etc., and an image database for search can be completed. As a result, an objective occupancy rate can be obtained and stored without being affected by the operator's will. Here, if the number of normalized regions is high, there will be many targets for each partial image region in the image. Conversely, if the number of normalized regions is low, there will be few targets for each partial image region. Therefore, the complexity of the image can be expressed with high accuracy by the number of normalized regions.

【0036】図7のフローチャートは、境界線の占有率
に代えて正規化領域数を用いる点が図2のフローチャー
トと異なるだけであり、他の点は同一であるから詳細な
説明は省略する。以上の説明から明らかなように、検索
条件に基づいて画像データベースから抽出される各画像
を、正規化領域数に基づいて定まる時間だけ表示するの
であるから、各画像の表示時間を必要最小限にでき、全
体として所要時間を短縮できるとともに、検索対象画像
の見落しをなくして、画像検索の確実化を達成できる。
The flowchart of FIG. 7 is different from the flowchart of FIG. 2 only in that the number of normalized areas is used instead of the occupation rate of the boundary line, and the other points are the same, and therefore detailed description will be omitted. As is clear from the above description, each image extracted from the image database based on the search condition is displayed for the time determined based on the number of normalized regions, so that the display time of each image is minimized. As a result, the time required as a whole can be shortened, and oversight of the image to be searched can be eliminated to achieve reliable image search.

【0037】[0037]

【実施例3】図9はこの発明の画像検索装置の一実施例
のうち、画像データベースの作成を行なう部分を示すブ
ロック図であり、検索対象となり得る画像を取り込む画
像取り込み部1と、取り込み画像を一時的に保持する画
像保持部2と、画像保持部2から画素毎に色データを取
り出して色度データに変換する色データ変換部3と、変
換された色度データに基づく、メディアンフィルタ等を
用いた平滑化処理を行なう平滑化処理部4と、色差微分
値の算出、色差微分値に基づく閾値処理を行なう微分処
理部5aおよび細線化処理を行なって線幅が“1”の境
界線を得る細線化処理部5bを有する境界線検出部5
と、境界線を構成する全画素を計数する境界線画素計数
部6aおよび境界線画素数を画像の全画素数で除算して
境界線占有率を算出する算出部6bを有する境界線占有
率算出部6と、画像保持部2に保持された画像を格納す
る画像格納部7aおよびキーワード入力部8により入力
されたキーワード、境界線占有率、画像格納アドレスを
示す画像ポインタを格納するキーワードテーブル格納部
7bを有する画像データベース7とを有している。
[Embodiment 3] FIG. 9 is a block diagram showing a portion for creating an image database in an embodiment of the image retrieval apparatus of the present invention. An image capturing unit 1 for capturing an image that can be a search target, and a captured image. Is temporarily stored, a color data conversion unit 3 that extracts color data for each pixel from the image storage unit 2 and converts it into chromaticity data, a median filter based on the converted chromaticity data, and the like. Smoothing processing unit 4 for performing a smoothing process using, a differential processing unit 5a for calculating a color difference differential value and a threshold value process based on the color difference differential value, and a thinning process for performing a thinning process for a boundary line having a line width of "1". Boundary line detection unit 5 having thinning processing unit 5b for obtaining
And a boundary line occupancy calculation unit having a boundary line pixel counting unit 6a that counts all the pixels that form the boundary line and a calculation unit 6b that calculates the boundary line occupancy by dividing the number of boundary line pixels by the total number of pixels in the image. 6 and an image storage unit 7a for storing the image held in the image holding unit 2 and a keyword table storage unit 7b for storing the keyword input by the keyword input unit 8, the boundary occupancy ratio, and the image pointer indicating the image storage address. And an image database 7 having

【0038】尚、構成各部の作用は、図1のフローチャ
ートの対応するステップの処理と同様であるから、詳細
な説明は省略する。したがって、登録すべき画像を指定
し、または読み込むだけで、自動的に変換処理、平滑化
処理、境界線検出処理、および境界線の占有率算出処理
を行なって、キーワード情報等と共にキーワード管理テ
ーブル等に格納できるのであるから、オペレータの恣意
に影響されることなく客観的な占有率を得て格納でき
る。
The operation of each component is the same as the process of the corresponding step of the flowchart of FIG. 1, and therefore detailed description will be omitted. Therefore, by simply specifying or reading an image to be registered, conversion processing, smoothing processing, boundary line detection processing, and boundary occupancy ratio calculation processing are performed automatically, and keyword management tables, etc., along with keyword information, etc. Since it can be stored in, it is possible to store it by obtaining an objective occupancy rate without being affected by the operator's will.

【0039】図10はこの発明の画像検索装置の一実施
例のうち、画像データベースに基づく画像検索を行なう
部分を示すブロック図であり、キーワード等を入力する
ための検索条件入力部11と、入力された検索条件に基
づいてキーワードテーブル格納部7bに対するアクセス
を行なうことにより、該当する画像の画像ポインタ、境
界線占有率を抽出する画像検索部12と、画像検索部1
2により得られた検索結果を保持する検索結果保持部1
3と、検索結果保持部から順次検索結果を取り出して、
画像格納部7aに対して読み出し指示データとして画像
ポインタを供給するとともに、境界線占有率を出力する
画像表示制御部14と、境界線占有率を入力として画像
表示時間を算出する画像表示時間算出部15と、画像格
納部7aから読み出された画像データに基づいて、算出
された画像表示時間だけ検索対象画像を可視的に表示す
る画像表示部16とを有している。尚、画像表示制御部
14と画像表示部16との間において同期信号の授受を
行ない、両者の動作を同期させるようにしている。
FIG. 10 is a block diagram showing a portion for performing image retrieval based on the image database in the embodiment of the image retrieval apparatus of the present invention. The retrieval condition input unit 11 for inputting a keyword and the like, and an input By accessing the keyword table storage unit 7b based on the retrieved search conditions, the image retrieval unit 12 that extracts the image pointer and the boundary occupancy of the corresponding image; and the image retrieval unit 1
Search result holding unit 1 that holds the search results obtained in 2
3 and sequentially retrieve the search results from the search result holding unit,
An image display control unit 14 that supplies an image pointer as read instruction data to the image storage unit 7a and outputs the boundary occupancy ratio, and an image display time calculation unit that calculates the image display time by inputting the boundary occupancy ratio. 15 and an image display unit 16 that visually displays the search target image for the calculated image display time based on the image data read from the image storage unit 7a. It should be noted that a synchronization signal is exchanged between the image display control unit 14 and the image display unit 16 to synchronize the operations of both.

【0040】尚、構成各部の作用は、図2のフローチャ
ートの対応するステップの処理と同様であるから、詳細
な説明は省略する。以上から明らかなように、検索条件
に基づいて画像データベースから抽出される各画像を、
境界線の占有率に基づいて定まる時間だけ表示するので
あるから、各画像の表示時間を必要最小限にでき、全体
として所要時間を短縮できるとともに、検索対象画像の
見落しをなくして、画像検索の確実化を達成できる。
The operation of each component is the same as the process of the corresponding step of the flowchart of FIG. 2, and therefore detailed description will be omitted. As is clear from the above, each image extracted from the image database based on the search condition is
Since it is displayed only for the time determined based on the occupancy ratio of the boundary line, the display time of each image can be minimized, the required time can be shortened as a whole, and the image to be searched can be searched without overlooking. The certainty of can be achieved.

【0041】[0041]

【実施例3】図11はこの発明の画像検索装置の他の実
施例のうち、画像データベースの作成を行なう部分を示
すブロック図であり、図9の実施例と異なる点は、境界
線検出部5および境界線占有率算出部6に代えて領域分
割部25および正規化領域数算出部26を採用した点の
みである。
[Embodiment 3] FIG. 11 is a block diagram showing a portion for creating an image database in another embodiment of the image retrieval apparatus of the present invention. The difference from the embodiment of FIG. 5 and the boundary line occupation ratio calculation unit 6 instead of the region division unit 25 and the normalized region number calculation unit 26.

【0042】さらに詳細に説明すると、上記領域分割部
25は、色データ変換部23により変換された各画素の
色度値に基づいて出現頻度が高い複数の色度値を代表色
の色度値として選択する代表色選択部25aと、代表色
として選択されなかった色度値を最も近似できる色度値
で置換する置換部25bと、置換部25bによる置換結
果に基づいて代表色毎に部分画像領域を得る画像分割部
25cと、画像分割部25cにより得られた各部分画像
領域について視覚的に画質変化が識別できる領域である
か否かを判別する領域判別部25dと、視覚的に画質変
化が識別できないことを示す領域判別部25dの判別結
果に応答して、該当する領域を隣接領域のうち、最も色
度差が小さい隣接領域と統合する領域統合部25eとを
有している。尚、構成各部の作用は、図6のフローチャ
ートの対応するステップの処理と同様であるから、詳細
な説明は省略する。
More specifically, the area dividing section 25 determines, based on the chromaticity values of each pixel converted by the color data converting section 23, a plurality of chromaticity values having a high appearance frequency, the chromaticity values of the representative color. A representative color selecting unit 25a, a replacing unit 25b that replaces a chromaticity value that is not selected as a representative color with a chromaticity value that can be most approximated, and a partial image for each representative color based on the replacement result by the replacing unit 25b. An image dividing unit 25c that obtains a region, an area discriminating unit 25d that discriminates whether or not an image quality change can be visually identified for each partial image region obtained by the image dividing unit 25c, and an image quality change visually. In response to the discrimination result of the area discriminating unit 25d indicating that the area cannot be discriminated, the corresponding area is integrated with the adjacent area having the smallest chromaticity difference among the adjacent areas. The operation of each component is the same as the process of the corresponding step of the flowchart of FIG. 6, and thus detailed description will be omitted.

【0043】上記正規化領域数算出部26は、領域分割
部25により分割された部分画像領域の数を計数する領
域計数部26aと、部分画像領域の数を全画素数で除算
することにより正規化を行なう領域数正規化部26bと
を有している。したがって、原画像の画質を実質的に低
下させることなく原画像を複数の部分画像領域に分割で
き、分割された部分画像領域の数に基づいて正規化領域
数を算出できる。そして、算出された正規化領域数を原
画像、キーワード情報等と共に光ディスク等の蓄積媒体
に格納して、検索のための画像データベースを完成する
ことができる。この結果、オペレータの恣意に影響され
ることなく客観的な占有率を得て格納できる。ここで、
正規化領域数が高ければ、各部分画像領域毎の対象が画
像中に多数存在することになり、逆に正規化領域数が低
ければ、各部分画像領域毎の対象が少ししか存在しない
ことになるのであるから、正規化領域数により画像の複
雑さをかなり高精度に表現できる。
The normalized area number calculation section 26 counts the number of partial image areas divided by the area dividing section 25 and an area counting section 26a that divides the number of partial image areas by the total number of pixels to normalize. It has a region number normalization unit 26b for performing conversion. Therefore, the original image can be divided into a plurality of partial image regions without substantially degrading the image quality of the original image, and the number of normalized regions can be calculated based on the number of divided partial image regions. Then, the calculated normalized area number can be stored in a storage medium such as an optical disk together with the original image, keyword information, etc., and an image database for search can be completed. As a result, an objective occupancy rate can be obtained and stored without being affected by the operator's will. here,
If the number of normalized regions is high, there will be many targets for each partial image region in the image. Conversely, if the number of normalized regions is low, there will be few targets for each partial image region. Therefore, the complexity of the image can be expressed with high accuracy by the number of normalized regions.

【0044】図12はこの発明の画像検索装置の他の実
施例のうち、画像データベースに基づく画像検索を行な
う部分を示すブロック図であり、図10のブロック図と
異なる点は、キーワードテーブル格納部27bが境界線
占有率に代えて正規化領域数を保持していることに伴な
って、画像表示時間算出部15が、正規化領域数に基づ
いて画像表示時間を算出する点が異なるだけである。
FIG. 12 is a block diagram showing a portion for performing image retrieval based on an image database in another embodiment of the image retrieval apparatus of the present invention. The point different from the block diagram of FIG. 27b holds the number of normalized regions instead of the occupancy ratio of the boundary line, and only the difference is that the image display time calculation unit 15 calculates the image display time based on the number of normalized regions. is there.

【0045】以上の説明から明らかなように、検索条件
に基づいて画像データベースから抽出される各画像を、
正規化領域数に基づいて定まる時間だけ表示するのであ
るから、各画像の表示時間を必要最小限にでき、全体と
して所要時間を短縮できるとともに、検索対象画像の見
落しをなくして、画像検索の確実化を達成できる。尚、
この発明は上記の実施例に限定されるものではなく、例
えば、画像の複雑さを示す値として、画像中で使用され
ている色数(一般的に、色数が多い画像ほど複雑な画像
である)、画像の空間周波数分布(一般的に、高周波成
分を多く含む画像は画像上の明るさが激しく変化する画
像であり、複雑な画像である)、境界線上で曲率が高い
部分の個数(境界線上では曲率が高い部分に観察者の視
点が集まる傾向にあるので、曲率が高い部分が多い画像
は観察者が注視しなければならないところが多く、複雑
な画像である)、輝度変化の分散(一般的に、明るさが
激しく変化する画像は見にくく、複雑な画像である)等
を採用することが可能であるほか、この発明の要旨を変
更しない範囲内において種々の設計変更を施すことが可
能である。
As is clear from the above description, each image extracted from the image database based on the search condition is
Since it is displayed only for the time determined based on the number of normalized areas, the display time for each image can be minimized and the required time can be shortened as a whole. Certainty can be achieved. still,
The present invention is not limited to the above-described embodiment. For example, as a value indicating the complexity of an image, the number of colors used in the image (generally, an image having a larger number of colors is A), the spatial frequency distribution of the image (generally, an image containing many high-frequency components is an image in which the brightness on the image changes drastically and is a complicated image), and the number of parts with a high curvature on the boundary line ( On the boundary line, the observer's viewpoint tends to gather in a portion with a high curvature, so an image with many portions with a high curvature has to be watched by the observer in many cases, which is a complicated image), and the variance of the luminance change ( In general, it is possible to adopt an image in which the brightness changes drastically as it is difficult to see, and it is possible to make various design changes within the scope of the present invention. Is.

【0046】[0046]

【発明の効果】以上のように請求項1の発明は、オペレ
ータが各画像の表示時間を設定する場合と異なり、表示
時間の設定作業を不要にできるとともに、画像毎に情報
量に見合った最適の表示時間を設定でき、ひいては、全
体として、画像検索の高速化および画像検索の確実化を
両立できるという特有の効果を奏する。
As described above, according to the first aspect of the invention, unlike the case where the operator sets the display time of each image, the work of setting the display time can be eliminated and the optimum amount of information can be optimized for each image. The display time can be set, and as a whole, a unique effect that both high-speed image search and reliable image search can be achieved is achieved.

【0047】請求項2の発明は、各画像を画像格納手段
に格納するに当って、境界線検出および境界線画素数の
算出等を行なうことにより、複雑さを示す客観的な情報
を自動的に得ることができ、ひいては、画像検索の高速
化および画像検索の確実化を両立できるという特有の効
果を奏する。請求項3の発明は、各画像を画像格納手段
に格納するに当って、領域分割および分割領域数の算出
等を行なうことにより、複雑さを示す客観的な情報を自
動的に得ることができ、ひいては、画像検索の高速化お
よび画像検索の確実化を両立できるという特有の効果を
奏する。
According to the second aspect of the present invention, when each image is stored in the image storage means, the boundary line is detected and the number of pixels of the boundary line is calculated. Therefore, it is possible to obtain a unique effect that both high-speed image search and reliable image search can be achieved. According to the third aspect of the present invention, when storing each image in the image storage means, it is possible to automatically obtain objective information indicating complexity by performing area division and calculation of the number of divided areas. As a result, there is a unique effect that both high-speed image search and reliable image search can be achieved.

【0048】請求項4の発明は、オペレータが各画像の
表示時間を設定する場合と異なり、表示時間の設定作業
を不要にできるとともに、画像毎に情報量に見合った最
適の表示時間を設定でき、ひいては、全体として、画像
検索の高速化および画像検索の確実化を両立できるとい
う特有の効果を奏する。
According to the invention of claim 4, unlike the case where the operator sets the display time of each image, the work of setting the display time can be eliminated, and the optimum display time corresponding to the information amount can be set for each image. As a result, as a whole, there is a unique effect that both high-speed image retrieval and reliable image retrieval can be achieved.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の画像検索方法の一実施例のうち、画
像データベースに画像を登録する処理を説明するフロー
チャートである。
FIG. 1 is a flowchart illustrating a process of registering an image in an image database in one embodiment of the image search method of the present invention.

【図2】図1のフローチャートの処理により得られた画
像データベースに基づいて画像を検索する処理を説明す
るフローチャートである。
FIG. 2 is a flowchart illustrating a process of searching an image based on an image database obtained by the process of the flowchart of FIG.

【図3】平滑化処理のための観察窓を例示する図であ
る。
FIG. 3 is a diagram illustrating an observation window for smoothing processing.

【図4】細線化処理のための演算窓を例示する図であ
る。
FIG. 4 is a diagram illustrating an operation window for thinning processing.

【図5】処理対象となる中心画素と隣接画素との関係を
示す図である。
FIG. 5 is a diagram showing a relationship between a central pixel to be processed and an adjacent pixel.

【図6】この発明の画像検索方法の他の実施例のうち、
画像データベースに画像を登録する処理を説明するフロ
ーチャートである。
FIG. 6 shows another embodiment of the image search method of the present invention.
7 is a flowchart illustrating a process of registering an image in an image database.

【図7】図6のフローチャートの処理により得られた画
像データベースに基づいて画像を検索する処理を説明す
るフローチャートである。
FIG. 7 is a flowchart illustrating a process of searching an image based on an image database obtained by the process of the flowchart of FIG.

【図8】識別不能領域を示す図である。FIG. 8 is a diagram showing an unidentifiable area.

【図9】この発明の画像検索装置の一実施例のうち、画
像データベースの作成を行なう部分を示すブロック図で
ある。
FIG. 9 is a block diagram showing a portion for creating an image database in the embodiment of the image retrieval apparatus of the present invention.

【図10】この発明の画像検索装置の一実施例のうち、
画像データベースに基づく画像検索を行なう部分を示す
ブロック図である。
FIG. 10 shows an embodiment of the image search device of the present invention.
It is a block diagram showing a portion which performs an image search based on an image database.

【図11】この発明の画像検索装置の他の実施例のう
ち、画像データベースの作成を行なう部分を示すブロッ
ク図である。
FIG. 11 is a block diagram showing a portion for creating an image database in another embodiment of the image retrieval apparatus of the present invention.

【図12】この発明の画像検索装置の他の実施例のう
ち、画像データベースに基づく画像検索を行なう部分を
示すブロック図である。
FIG. 12 is a block diagram showing a portion that performs image retrieval based on an image database in another embodiment of the image retrieval apparatus of the present invention.

【符号の説明】[Explanation of symbols]

7,27 画像データベース 12,32 画像
検索部 15,35 画像表示時間算出部 16,36
画像表示部
7,27 Image database 12,32 Image retrieval unit 15,35 Image display time calculation unit 16,36
Image display section

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数の画像を画像格納手段(7)(2
7)に格納しておき、所定の検索条件に基づいて、画像
格納手段(7)(27)から順次該当する画像を抽出し
て表示手段(16)(36)により可視的に表示する画
像検索方法において、各画像を画像格納手段(7)(2
7)に格納するに当って、画像の複雑さを示す情報をも
画像格納手段(7)(27)に格納しておき、画像格納
手段(7)(27)から該当する画像と共に画像の複雑
さを示す情報を抽出し、画像の複雑さを示す情報に基づ
いて該当する画像の可視的表示時間を制御することを特
徴とする画像検索方法。
1. A plurality of images are stored in an image storage means (7) (2).
Image retrieval in which the corresponding images are sequentially stored in the image storage means (7) and (27) based on predetermined retrieval conditions and visually displayed by the display means (16) and (36). In the method, each image is stored in the image storage means (7) (2
When storing in 7), the information indicating the complexity of the image is also stored in the image storing means (7) (27), and the image is stored in the image storing means (7) (27) together with the corresponding image. An image retrieval method characterized by extracting information indicating the image quality and controlling the visible display time of the corresponding image based on the information indicating the complexity of the image.
【請求項2】 複雑さを示す情報が、画像中における境
界線の占有率である請求項1に記載の画像検索方法。
2. The image search method according to claim 1, wherein the information indicating the complexity is an occupancy rate of a boundary line in the image.
【請求項3】 複雑さを示す情報が、画像中における、
複数の代表色で規定される領域の数である請求項1に記
載の画像検索方法。
3. Information indicating complexity is included in an image,
The image search method according to claim 1, wherein the number of areas is defined by a plurality of representative colors.
【請求項4】 複数の画像を画像格納手段(7)(2
7)に格納しておき、所定の検索条件に基づいて、画像
格納手段(7)(27)から順次該当する画像を抽出し
て表示手段(16)(36)により可視的に表示する画
像検索装置において、画像格納手段(7)(27)が、
格納された画像と共に画像の複雑さを示す情報を格納す
るものであり、画像格納手段(7)(27)から該当す
る画像とともに画像の複雑さを示す情報を抽出する抽出
手段(12)(32)と、画像の複雑さを示す情報に基
づいて該当する画像の可視的表示時間を制御する表示時
間制御手段(15)(35)とを含むことを特徴とする
画像検索装置。
4. An image storage means (7) (2) for storing a plurality of images.
Image retrieval in which the corresponding images are sequentially stored in the image storage means (7) and (27) based on predetermined retrieval conditions and visually displayed by the display means (16) and (36). In the device, the image storage means (7) (27)
Information that indicates the complexity of the image is stored together with the stored image, and extraction means (12) (32) that extracts the information indicating the complexity of the image together with the corresponding image from the image storage means (7) (27). ) And display time control means (15) (35) for controlling the visible display time of the corresponding image based on the information indicating the complexity of the image.
JP5024568A 1993-02-12 1993-02-12 Method and device for picture retrieval Pending JPH06243179A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5024568A JPH06243179A (en) 1993-02-12 1993-02-12 Method and device for picture retrieval

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5024568A JPH06243179A (en) 1993-02-12 1993-02-12 Method and device for picture retrieval

Publications (1)

Publication Number Publication Date
JPH06243179A true JPH06243179A (en) 1994-09-02

Family

ID=12141766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5024568A Pending JPH06243179A (en) 1993-02-12 1993-02-12 Method and device for picture retrieval

Country Status (1)

Country Link
JP (1) JPH06243179A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4812885A (en) * 1987-08-04 1989-03-14 Texas Instruments Incorporated Capacitive coupling
EP0675547A1 (en) * 1994-03-30 1995-10-04 STMicroelectronics S.A. Electrically programmable memory cell

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4812885A (en) * 1987-08-04 1989-03-14 Texas Instruments Incorporated Capacitive coupling
EP0675547A1 (en) * 1994-03-30 1995-10-04 STMicroelectronics S.A. Electrically programmable memory cell

Similar Documents

Publication Publication Date Title
EP0590759B1 (en) System and method for locating video segment boundaries
JP4333348B2 (en) A program for causing a processor to execute a method of organizing a digital image and displaying it to a user
CN101601287B (en) Apparatus and methods of producing photorealistic image thumbnails
US8094935B2 (en) Representative color extracting method and apparatus based on human color sense and data histogram distributions
US5819286A (en) Video database indexing and query method and system
US20130004073A1 (en) Image processing device, image processing method, and image processing program
US8213741B2 (en) Method to generate thumbnails for digital images
JP2008521133A (en) Distribution-based event clustering
US20050210019A1 (en) Method and apparatus for retrieving image from database, and computer product
EP0549905A1 (en) Method and apparatus for automated cell analysis
CN106445424A (en) Information processing method and information processing apparatus
WO2014148209A1 (en) Electronic album creation device and electronic album production method
US20080244384A1 (en) Image retrieval apparatus, method for retrieving image, and control program for image retrieval apparatus
EP0636994B1 (en) Method of and apparatus for retrieving dynamic images and method of and apparatus for managing images
US6847379B2 (en) Display of static digital images
JP2006119723A (en) Device and method for image processing
US20060036948A1 (en) Image selection device and image selecting method
US6825854B1 (en) Method for image management of X-ray images
JP2004304765A (en) Image recording apparatus, method, and program
JP2002183166A (en) System and method for filing document
JP2002342743A (en) Picture processor and picture processing method
JP5146282B2 (en) Information processing apparatus, display control method, and program
US20100150447A1 (en) Description based video searching system and method
JPH06243179A (en) Method and device for picture retrieval
JP2002202463A (en) Image display device, microscope system provided with the image display device and recording medium