JP2013008142A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2013008142A
JP2013008142A JP2011139538A JP2011139538A JP2013008142A JP 2013008142 A JP2013008142 A JP 2013008142A JP 2011139538 A JP2011139538 A JP 2011139538A JP 2011139538 A JP2011139538 A JP 2011139538A JP 2013008142 A JP2013008142 A JP 2013008142A
Authority
JP
Japan
Prior art keywords
image
importance
feature point
code
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011139538A
Other languages
English (en)
Inventor
Takeshi Irie
豪 入江
Takashi Sato
隆 佐藤
Akira Kojima
明 小島
Kiyoharu Aizawa
清晴 相澤
Toshihiko Yamazaki
俊彦 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Original Assignee
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, University of Tokyo NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011139538A priority Critical patent/JP2013008142A/ja
Publication of JP2013008142A publication Critical patent/JP2013008142A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】任意の画像の重要領域を画像の閲覧回数から推定し、当該領域を重要領域として削除・変化させることなく小型化すること。
【解決手段】事前登録されている登録画像の閲覧回数を用いて計算された符号の重要度を記憶した符号重要度帳110から、入力画像の特徴点に割り当てられた符号の重要度を取得し、その特徴点の領域の重要度を計算して、その特徴点の領域の重要度の大小に基づいて入力画像を小型化する。
【選択図】図1

Description

本発明は、検索された画像を入力画像とし、小型化する技術に関する。
ブロードバンド網の高度化、ストレージの大容量化、更には分散環境の整備により、オンラインでのコンテンツ流通はもはや日常のものとなっている。特に、2000年代中頃より、画像や映像等のマルチメディアコンテンツ共有サイトやIPTV・VoD等のサービスが一挙に普及して以来、オンラインコンテンツは文書にとどまらず、画像・映像等のよりリッチなものを閲覧・視聴できるようになっている。
一般に、オンラインコンテンツを閲覧・視聴するためには、ユーザは、公開されている非常に多くのコンテンツの中から、検索エンジン等を利用して興味のあるものを探し出す必要がある。
現在の検索エンジンでは、コンテンツが画像である場合はもちろん、映像である場合であっても、「サムネイル」と呼ばれる小さい静止画像によってコンテンツをプレビューできるようになっている。
このようなサムネイルには、元のコンテンツが画像であれば、その画像を単純に小さいサイズにリスケールしたものが用いられることが多い。また、コンテンツが映像であれば、映像の中から1枚の画像を抽出し、これを同様に小さいサイズにリスケールしたものが用いられている。
このようなサムネイルは、大量のコンテンツを一覧するのに向いており、通常のパーソナルコンピュータ(Personal Computer:PC)に備えられるような、十分な大きさを持つモニタで見る分には非常に役に立つ。
一方、最近では、無線通信技術の発達や、スマートフォン等の高機能なモバイル端末の普及により、モバイル端末で画像や映像等のコンテンツを検索したり視聴したりすることも少なくなくなってきている。
このような端末は、持ち運び用であるがゆえ、非常に小型に集積されており、伴ってモニタもPCのそれに比べて遥かに小さくなっている。一例を挙げれば、PCでよく用いられる22インチワイドディスプレイは、横19.1インチ、縦10.8インチであるが、同じくモバイル端末に用いられる3.5インチワイドディスプレイは、横3.1インチ、縦1.8インチとなっており、その面積比は実に37分の1となっている。
モバイル端末モニタの「小ささの問題」は、先のサムネイルの閲覧に対しても大きな不便さをもたらす。サムネイルは、小さい画像であるとはいえ、内容を視認・理解できるものでなければならない。したがって、ある程度以上のサイズに保たれることが要求される。
PCであれば、モニタサイズが大きいために、十分なサムネイルサイズを保持することは容易であるが、モバイル端末においては事情が異なる。先の画面の面積比を引用すれば、モバイル端末において、PCと同じ枚数のサムネイルを提示するためには、単純計算して1つ1つの画像サイズを、実に37分の1に縮小しなければならなくなるからである。
然るに、モバイル端末のような小さい画面であっても、内容視認・理解の容易なサムネイル画像を生成できる画像処理技術が求められている。
従来より、元の画像よりも小型の画像を生成し、この問題に対処しようとする画像処理技術の発明がなされ、開示されてきた。特許文献1記載の技術、非特許文献1記載の技術、非特許文献2記載の技術がある。
特許文献1には、顔画像に特徴的に表れる特徴量に基づいて、効率的に顔領域を検出する技術について開示されている。本技術によれば、顔のある画像から顔領域のみを抽出し、小型化することができる。
非特許文献1には、画像内の顔のある領域、又は目立つ領域を検出し、これら以外の部分を切り取ることによって、画像を小型化する画像処理技術が開示されている。
非特許文献2には、seam carvingという画像のリサイズ技術が開示されている。この技術では、あるピクセルを仮に削除した場合に起こるエネルギーの変化が小さいピクセルだけを順次削除することによって小型化を実現している。
特開2010−97462号公報
Bongwonn Suh、外3名、「Automatic Thumbnail Cropping and its Effectiveness」、In Proceedings of Annual ACM Symposium on User Interface Software and Technology (UIST)、2007年、p. 95-104. Shai Avidan、外1名、「Seam Carving for Content-Aware Image Resizing」、ACM Transactions on Graphics、Vol. 26、No. 3、Article No. 10、2007年7月
しかしながら、上に述べた従来の画像処理技術では、依然として画像の重要な領域を残して小型化を行うことはできなかった。
特許文献1及び非特許文献1記載の技術は、顔のある領域や目立つ領域のみに着目するものであった。これらのような特定の領域は、あらゆる画像において、必ずしも重要な領域であるとは限らない。したがって、この技術は、任意の画像に対して重要な領域を鑑み、画像を小型化できる技術ではなかった。
非特許文献2記載の技術では、エネルギーの変化の観点で画像をリサイズするため、重要な領域がエネルギーの低い領域であった場合、削除又は変形してしまうことがあった。削除したくないような重要な領域がある場合には、その領域を強制的に高エネルギー化することによって残すことも可能であるが、この場合にはその領域を手動で指定する必要があった。
以上説明したように、依然として、任意の画像に対して、その重要な領域を鑑み、これを削除・変更することなく小型化できる画像処理技術は実現されていなかった。
本発明は、上記課題を鑑みてなされたものであり、その課題とするところは、任意の画像の重要領域を画像の閲覧回数から推定し、当該領域を重要領域として削除・変化させることなく小型化することにある。
上記課題を解決すべく、本発明の着眼点を説明する。まず、本発明では、1枚の画像を特徴点の点群であると考える。特徴点とは、画像の領域、例えば、画像内に収められた物体の一部又は全体を記述した特徴量である。
なお、このような特徴点、及びこれを抽出する方法としては、例えば、「Distinctive Image Features from Scale-Invariant Keypoints」(David G. Lowe、International Journal of Computer Vision、Vol. 60、No. 2、2004年、p. 91-110.)に記載のSIFT(scale invariant feature transform)や、「SURF: Speeded Up Robust Features」(Herbert Bay、外3名、Computer Vision and Image Understanding、Vol. 110、No. 3、2008年、p. 346-359.)に記載のSURF(speeded up robust feature)等を利用できる。
これらの特徴点は、画像中の座標(x,y)・スケール(大きさ・半径)と、その領域の特徴を記述したベクトルとによって構成される。ベクトルは、領域の特徴を記述したものであるから、このベクトルが類似する領域は、互いに似た特徴を持つ領域であるとみなすことができる。
重要領域の特定には、画像の閲覧情報を利用する。すなわち、より閲覧されるような領域ほど、重要であると判断する。いま、ある画像Aをリサイズすることを考える。小型化しようとする画像Aがあったとき、理想的には、この「画像Aのどの領域が一番閲覧されているか」を直接得られることが好ましいが、本発明では、画像Aの閲覧履歴が得られていないような場合であっても、別の画像(画像B、画像C、…)の閲覧履歴を用いて、画像Aの重要領域を特定することができる。
例えば、過去に閲覧された履歴のある画像B、画像Cがあったとする。これらの画像に対しても、それぞれ、特徴点、すなわち、特徴的な領域とその特徴を記述したベクトルを得ることができる。
仮に、画像Bが10回、画像Cが5回閲覧されていたとする。このとき、画像Bに含まれる特徴点は、10回分の閲覧に相当する重要度があると考え、画像Cに含まれる特徴点は、5回分の閲覧に相当する重要度があると考える。
仮に、画像Bと画像Cの特徴点のうち、同一の特徴を持つ(ベクトルが似ている)ものがあれば、その特徴点は、画像Bと画像Cの閲覧回数を加えた15回分の閲覧に相当する重要度があると考えることができる。
このように考えることによって、各特徴点が、どの程度重要であるかを判断することができる。
この特徴点の重要度を鑑みれば、画像Aに含まれる各特徴点との対応を解析することで、その重要度を推定することができる。すなわち、15回分の閲覧に相当する重要度を持つ特徴点と同一の特徴点を持つものがあれば、それは画像Aの中でも最も重要な特徴点であると推定され、小型化された画像においても保持されるべき領域を示すことになる。一方で、一度も閲覧されていないような特徴点は、あまり重要ではない特徴点であるとみなすことができ、保持する必要のない領域を示すことになる。
以上説明したように、本発明では、画像の閲覧情報を利用し、重要な領域とそうでない領域を判定し、小型化することを実現している。上記例では、画像A〜画像Cの3枚の画像を例に説明したが、実際には、より多くの画像閲覧情報を利用し、重要領域の判定を行うことにより、その信頼性を高めることができる。
以上の点を踏まえて、請求項1記載の画像処理装置は、検索された画像を入力画像とし、小型化する画像処理装置において、記憶手段から登録画像及び登録画像の閲覧回数を取得する情報取得手段と、前記登録画像及び前記入力画像に含まれる領域の特徴量を求めて特徴点として抽出する特徴点抽出手段と、特徴点の特徴量と符号とを対応付けた符号帳データを用いて、前記抽出された特徴点に符号を割り当てる符号化手段と、前記登録画像の閲覧回数を用いて、当該登録画像の特徴点に割り当てられた符号の重要度を計算し、符号重要度帳データに記憶する符号重要度計算手段と、前記符号重要度帳データから、前記入力画像の特徴点に割り当てられた符号の重要度を取得し、当該特徴点の領域の重要度を計算する領域重要度計算手段と、前記領域の重要度の大小に基づいて前記入力画像を小型化する小型化手段と、を有することを特徴とする。
本発明によれば、事前登録されている登録画像の閲覧回数を用いて計算された符号の重要度を記憶した符号重要度帳データから、入力画像の特徴点に割り当てられた符号の重要度を取得し、その特徴点の領域の重要度を計算して、その特徴点の領域の重要度の大小に基づいて入力画像を小型化するため、任意の画像の重要領域を画像の閲覧回数から推定し、当該領域を重要領域として削除・変化させることなく小型化することができる。
請求項2記載の画像処理装置は、請求項1記載の画像処理装置において、前記登録画像の閲覧回数は、当該登録画像の検索時に入力されたクエリ毎の閲覧回数であって、前記符号重要度計算手段は、前記符号の重要度をクエリ毎に計算し、前記領域重要度計算手段は、前記入力画像の検索時に入力されたクエリに対応する符号の重要度を取得して、前記特徴点の領域の重要度を計算することを特徴とする。
画像検索や映像検索においては、サムネイルの各領域の重要度は、問い合わせキー(クエリ)毎に異なることが想定される。例えば、ある画像内に「桜(の木)」と「東京タワー」が収められていたとする。このとき、「桜」というクエリで検索されたか、「東京タワー」というクエリで検索されたかによって、重要だと判定されるべき領域は明らかに異なる。
そのため、本発明によれば、入力画像の検索時に入力されたクエリに対応する符号の重要度を取得して、入力画像の特徴点の領域の重要度を計算するため、入力画像がどのようなクエリによって閲覧されたかを特定し、それに応じた重要度を求めることが可能となり、より適切に小型画像を生成できる。
請求項3記載の画像処理装置は、請求項1又は2記載の画像処理装置において、前記領域重要度計算手段は、前記入力画像の特徴点に割り当てられた符号の重要度と、当該特徴点の中心座標及び大きさにより定められる関数との二項演算によって定められる値の線形演算によって、当該特徴点の領域の重要度を計算することを特徴とする。
特徴点のスケール(大きさ・半径)は様々であるが、この特徴点領域に対して一律に重要度を与えるとした場合、スケールの大きな特徴点が重なる領域ほど重要度が高くなってしまうなど、領域重要度が特徴点のスケールに大きく依存してしまうデメリットを生む場合がある。
そのため、本発明によれば、領域重要度を求める際に特徴点のスケールを考慮した関数を導入しているため、このスケールの影響を緩和し、より高精度な重要度推定を実施することができる。
請求項4記載の画像処理装置は、請求項1乃至3のいずれかに記載の画像処理装置において、前記小型化手段は、前記入力画像の特徴点の領域の重要度と当該入力画像の局所テクスチャとにより定められる目的関数を最適化することによって、前記入力画像を小型化することを特徴とする。
本発明では、画像の重要度を考慮して、重要な領域を削除・変化させることなく小型化画像を生成する。また、画像の局所テクスチャは、エッジや画素値の局所的変化量の指標である。すなわち、これが大きい領域は、削除・変形させてしまった場合に見た目の変化が大きくなるような領域であるため、小型化する上で避けるべき領域といえる。
そのため、本発明によれば、入力画像の特徴点の領域の重要度と当該入力画像の局所テクスチャとにより定められる目的関数を最適化することによって、入力画像を小型化するため、これら双方の影響を考慮しながら、最適となる小型化画像を生成することができる。
請求項5記載の画像処理装置は、請求項1乃至4のいずれかに記載の画像処理装置において、前記登録画像の閲覧回数は、当該登録画像を構成する領域毎の閲覧回数であって、前記符号重要度計算手段は、前記登録画像の特徴点に対応する領域が閲覧された閲覧回数に応じて、当該登録画像の特徴点に割り当てられた符号の重要度を計算することを特徴とする。
また、以上の画像処理装置が実行する画像処理方法も本発明の特徴である。この本発明に係る画像処理方法は、コンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、通信ネットワークを介して提供されたりしてもよく、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。
本発明によれば、任意の画像の重要領域を画像の閲覧回数から推定し、当該領域を重要領域として削除・変化させることなく小型化することができる。
画像処理装置の機能ブロック構成例を示す図である。 画像処理装置の処理動作例を示すフローチャートである。 画像を構成する領域毎の閲覧回数の取得方法例を説明する図である。 特徴点に割り当てられた符号の重要度の計算方法例を説明する図である。 特徴点の領域重要度の計算方法例を説明する図である。 画像小型化方法(クロッピング)を説明する図である。 画像小型化方法(リターゲティング)を説明する図である。 画像小型化方法の効果を説明する図である。
以下、本発明を実施する一実施の形態について図面を用いて説明する。
図1に、本実施の形態に係る画像処理装置の機能ブロック構成の一例を図示する。この図に示すように、本実施の形態による画像処理装置1は、入力部101と、特徴点抽出部102と、符号帳104を保持する符号化部103と、領域重要度計算部105と、小型化部106と、出力部107と、情報取得部108と、符号重要度計算部109と、符号重要度帳110とで主に構成される。
ここで、符号帳104は、特徴点の特徴ベクトルと符号との対応関係を記録したデータであり、特徴点を符号に変換する際に用いる。また、符号重要度帳110は、各符号に対応する重要度を記憶したデータであり、画像の領域の重要度を求める際に用いる。
また、通信網(不図示)を介して本画像処理装置1に接続された画像データベース111が存在し、その画像データベース111には、画像群112や各画像のメタデータや閲覧情報と共に登録されている。
以降、本実施の形態の一例として、検索された画像を入力画像113とし、その入力画像113を入力として受け取り、当該入力画像113を小型化して小型化画像114として出力するまでに要する処理について説明する。
入力部101は、入力画像113を入力として受け取り、これを特徴点抽出部102に受け渡す機能を有している。
特徴点抽出部102は、入力画像113や、情報取得部108によって画像データベース111から取得された登録画像に対して特徴点抽出処理を実行し、得られた特徴点を符号化部103に出力する機能を有している。
符号化部103は、符号帳104を参照し、入力画像113や登録画像の各特徴点がどの符号に対応するかを判断し、符号に変換する(符号に割り当てる)機能を有している。
領域重要度計算部105は、符号重要度帳110を参照して各符号(特徴点)の重要度を判断し、対応する特徴点の領域における重要度を計算する機能を有している。
小型化部106は、特徴点の領域における重要度を参照し、重要度の高い座標領域ほど、削除・変更されないよう小型化して出力する機能を有している。
出力部107は、生成された小型化画像114を出力する機能を有している。
情報取得部108は、画像データベース111から登録画像及び登録画像の閲覧情報を取得する機能を有している。
符号重要度計算部109は、登録画像の閲覧情報を用いて、その登録画像の特徴点に割り当てられた符号の重要度を計算し、符号重要度帳110に記憶する機能を有している。
以上の機能を具備する画像処理装置1により、入力画像の重要領域を残したまま小型化して出力することを実現する。
図2に、画像処理装置1が実行する画像処理のフローチャートを図示する。このフローチャートを用いて、本実施の形態の一例において実行される画像処理について詳述する。
本画像処理は、大別して、図2(a)に示す前処理と、図2(b)に示す画像小型化処理とからなる。前処理は、画像小型化処理に用いる符号重要度帳110を生成するための処理であり、画像データベース111に登録された画像とその閲覧情報から、特徴点抽出部102と、符号化部103と、符号重要度計算部109とを介して実行される。
一方、画像小型化処理は、実際に小型化対象の入力画像を小型化画像に変換するための処理を実行するための処理であり、特徴点抽出部102と、符号化部103と、領域重要度計算部105と、小型化部106とを介して実行される。
以降、前処理と画像小型化処理とについて、その処理内容を詳述する。
〔前処理〕
図2(a)のフローチャートに示すように、前処理では、ステップS101〜S104までの4段階の処理を経る。
まず、ステップS101では、情報取得部108が、画像データベース111に蓄積された画像群112と、各画像の閲覧情報を取得する。
画像群は、全て同時に蓄積されるものとしても構わないし、1つ1つ異なるタイミングで蓄積されるものであってもよい。本実施の形態の一例においては、画像データベース111と画像処理装置1とは通信網(不図示)で接続されたものとしているが、画像データベース111が画像処理装置1の内部にあるものとしてもよい。
ここで取得する閲覧情報とは、各画像の全領域又はその一部の領域が、過去一定の期間にどのように、どの程度閲覧されたかを表す情報である。例えば、画像の閲覧回数が含まれる。又は、画像が何らかのクエリによって検索され、閲覧された場合には、クエリ毎の閲覧回数等も閲覧情報に含まれる。例えば、「画像Aが、桜というクエリで5回、木というクエリで3回、閲覧された」といった情報が閲覧情報となる。
また、取得できる場合には、画像の閲覧回数ではなく、画像を構成する領域毎の閲覧回数を得るものとしてもよい。最近のスマートフォン等では、画像の特定部分を拡大表示して閲覧できることがあるが、どこを拡大して表示したかといった情報が画像データベース111に登録されていれば、これを取得する。
ここで、図3を例に、画像の領域毎の画像閲覧回数の取得方法の一例を説明する。まず、画像を領域ごとに分割する。この領域分割には、「Mean Shift: A Robust Approach Toward Feature Space Analysis」(Dorin Comaniciu、外1名、IEEE Transactions on Pattern Analysis and Machine Intelligence、Vol. 24、No. 5、2002年、p.603-619.)に記載されたオブジェクトごとに分割できるmean shift法や、「Normalized Cuts and Image Segmentation」(Jianbo Shi、外1名、IEEE Transactions on Pattern Analysis and Machine Intelligence、Vol. 22、No. 8、2000年、p.888-905.)に記載されたグラフカット法等の公知の技術を用いてもよいが、図3に示すように、等間隔に分割するものとしてもよい。
図3の例では、(3−a)〜(3−p)まで、均等に16分割した例である。このように分割された各領域について、拡大して閲覧された回数を得る。例えば、「画像Aの領域(3−m)が4回、(3−o)が8回、(3−p)が2回閲覧された」といった情報が閲覧情報となる。
このようにすることによって、物体の映っている(3−m)や(3−o)、(3−p)等、拡大して閲覧されやすい(より重要な)領域部分の閲覧回数をより精密に得ることができる。
続いて、ステップS102では、特徴点抽出部102が、ステップS101で取得した各画像それぞれに対して特徴点抽出処理(画像に含まれる1以上の領域の特徴量を求めて特徴点として抽出する処理)を実行し、特徴点を抽出する。特徴点とは、画像中の特徴的な点に対して抽出されるものであり、少なくとも、画像中のどの点であるかを示す座標(x,y)やスケール(半径)、及びその点の特徴を表すベクトルで構成される。
このような特徴点を抽出するには、前述したようにSIFTやSURF等、公知のものを用いることができる。これらによって抽出される特徴点の特徴は、例えば128次元の実数値ベクトルとして表現される。
以降、特徴点をp=(x,y,σ,v)で表す。ここで、x,yはそれぞれ特徴点中心の画像上のx座標とy座標、σはスケール、vは特徴ベクトルである。各画像からは、特別な場合を除いて1つ以上の特徴点が抽出されるので、画像Iは特徴点の集合PIとして表現することができる。
続いて、ステップS103では、符号化部103が、ステップS102で抽出された各特徴点のそれぞれに対して、予め生成しておいた符号帳104を参照して符号化する。
まずここでは、先だって実行する符号帳104の生成方法について述べる。符号帳104は、特徴点pの特徴ベクトルvを、その特徴ベクトルvの値に応じて符号sに変換するための規則を格納したものである。
特徴点の集合PN={p1,p2,…,pN}(Nは自然数)の各特徴点の特徴ベクトルを、V={v1,v2,…,vN}と表す。このVに対してクラスタリングを適用し、符号帳を得る。クラスタリング方法としては、k-means法やガウス混合モデル、「Clustering by Passing Messages Between Data Points」(Brendan J. Frey、外1名、Vol. 315、2007年、p.972-976.)に記載されたAffinity Propagation等、公知の技術を用いることができる。
クラスタリングの結果、Vを代表する1つ以上(M個)(Mは自然数)の代表特徴ベクトルV*={v1*,v2*,…,vM*}が得られる。このM個の代表特徴ベクトルの1つ1つが、符号に相当する。符号帳を生成するために用いる画像は、どのようなものでも構わないが、例えば画像データベース111中の画像群を用いるものとしてもよい。
以上のようにして符号帳104を得ることができる。
こうして得た符号帳104を参照して、特徴点pの特徴ベクトルvの値に応じて、符号を割り当てる。具体的には、特徴点pの特徴ベクトルvが、M個の代表特徴ベクトルのいずれに一番近いかを任意の距離空間で計測し、最も近い代表特徴ベクトルに対応する符号を割り当てる。
続いて、ステップS104では、符号重要度計算部109が、ステップS101で取得した閲覧情報を用いて、先述の符号のそれぞれの重要度を求め、符号重要度帳110を生成する。
符号重要度帳110は、符号帳104に記載された各符号が、どの程度重要であるかを格納した辞書データである。ステップS101からステップS103までの処理により、画像データベース111中の各画像(又は領域毎)の閲覧情報と、特徴点に割り当てられた符号の集合が得られている。これらの情報に基づいて、符号帳104の各符号が、どの程度重要であるかを推定する。
図4を用いて、その処理の一例を説明する。説明の簡便性のため、図4には、領域(3−e)と領域(3−o)からそれぞれ1つずつの特徴点が抽出されているものとする。実際には、より多くの特徴点が抽出されることになるが、以降説明する処理のエッセンスは同じである。
この図では、領域(3−e)には、符号“3”の特徴点が抽出されており、領域(3−o)には、符号“5”の特徴点が抽出されている。また、閲覧情報として、「領域(3−e)がこれまでに1回閲覧された」こと、「領域(3−o)がこれまで8回閲覧された」ことがわかっている。
より閲覧されやすい興味のある画像(領域)の方が、より閲覧される傾向にあるため、閲覧情報は重要度を反映している。そこで、閲覧回数1の領域(3−e)の符号“3”には重要度1を、閲覧回数8の領域(3−o)の符号“5”には重要度8をそれぞれ加点する。
このようにして、各符号の重要度を算出する。もちろん、領域毎ではなく、画像毎の閲覧回数しか得られないような場合であっても、より閲覧された画像の符号の重要を大きくすることによって、同様の重要度計算をすることができる。
重要度を求める際には、閲覧回数に応じて単調増加する任意のものを用いることができる。ここで、単純に閲覧回数を加点するだけでは、ありふれた符号、すなわち、多くの画像(領域)に頻出する符号ほど重視されてしまうという問題がある。
そこで、符号の出現数で割り引いた重要度の計算を取り入れることが好ましい。ある符号をcとし、その重要度をi(c)として、例えば、下記の式(1)に基づいて重要度を求めることができる。
Figure 2013008142
ここで、#(c)は符号cの出現回数、b(c)は符号cの閲覧回数の合計、Nは総画像数を表す。この式(1)によれば、vf(c)より、より閲覧された回数の多い符号ほど重要度が高く、cf(c)より、符号出現1回あたり、より閲覧されているものほど重要度が高く、かつ、iif(c)より、多くの画像に頻出するような、ありふれた符号でないものほど重要度が高くなる。もちろん、vf(c)、cf(c)、iif(c)の全てを用いる必要はなく、必要に応じて取捨選択してもよい。
以上のように、全ての符号に対する重要度を求め、符号重要度帳110として格納する。
また、クエリ毎の閲覧情報が得られている場合には、クエリ毎に、上記のような符号重要度帳を生成してもよい。この場合は、クエリ「桜」の符号重要度帳、クエリ「木」の符号重要度帳等、複数の符号重要度帳を生成することとなる。
以上、前処理の一例について詳述した。
〔画像小型化処理〕
続いて、画像小型化処理について説明する。画像小型化処理は、入力画像を処理することにより、重要な領域を残しながら小型化した画像を出力する処理である。
図2(b)のフローチャートに示すように、画像小型化処理では、ステップS105〜S109までの5段階の処理を経る。以下、各ステップについて、その処理の一例を詳述する。
まず、ステップS105では、入力部101が、入力画像113を入力として受け付ける。続いて、ステップS106では、特徴点抽出部102が、入力画像113から特徴点を抽出し、ステップS107では、符号化部103が、符号帳104を参照し、抽出した各特徴点に符号を割り当てる。なお、ステップS106とステップS107との各処理内容については、それぞれ、前処理におけるステップS102とステップS103と同様である。
ここまでの処理によって、入力画像113は、符号が割り当てられた特徴点の集合となっている。
続くステップS108では、領域重要度計算部105が、前処理によって得た符号重要度帳110を参照し、入力画像113の領域毎の重要度を求める。入力画像113から得られた特徴点は、特徴点中心の画像上の座標xと座標y、スケールσ、特徴ベクトルvと、割り当てられた符号とを持つ。
図5を用いて、その処理の一例を説明する。説明の簡便性のため、図5には、2つの特徴点が抽出されているものとしている。実際には、より多くの特徴点が抽出されることになるが、以降説明する処理のエッセンスは同じである。
この図では、x=225,y=155,スケール3の領域に、符号“5”の特徴点p1が抽出されており、x=30,y=120,スケール8の領域に、符号“3”の特徴点p2が抽出されている。また、前処理によって作成した符号重要度帳110を参照し、符号“3”の重要度が0.3、符号“5”の重要度が1.5と分かっているとする。
そこで、符号“5”であるp1の特徴点領域に重要度1.5を加算し、符号“3”であるp2の特徴点領域に符号0.3を加算する。このようにして、符号帳重要度を基に、入力画像の各領域の重要度を計算する。
領域重要度を求める際には、符号の重要度に応じて単調増加する任意のものを用いることができる。ここで、単純に特徴点の領域に符号重要度を一様に与えるだけでは、よりスケール(半径)の大きな特徴点が重なる領域ほど重要度が高くなってしまう場合がある。
そこで、符号のスケールの大きさで割り引いた重要度の計算を取り入れることが好ましい。特徴点pの中心座標をx,y、スケールをσとし、その特徴点の符号の重要度をiとすると、例えば、下記の式(2)に基づいて、任意のピクセル(x’,y’)の重要度f(x’,y’)を求めることができる。
Figure 2013008142
なお、Pは入力画像の全特徴点の集合であり、|P|はその要素数である。式(2)は、符号の重要度と、入力画像の特徴点の中心座標及びスケールにより定められる関数との二項演算によって定められる値の線形演算である。
このようにして、入力画像中の任意の座標における重要度を計算することができる。
また、前処理であるステップS104において、クエリ毎の符号重要度帳を生成している場合には、クエリに対応した領域重要度を計算してもよい。式(2)における重要度iがクエリ毎に変化することになる点以外は、上記説明した処理と全く同じ処理を実施することができる。入力画像が異なるクエリによって検索される場合、クエリに応じて重要な領域を変化させることができるため、よりユーザの意図にあった小型化画像を得ることができるようになり、利便性が高まる。
続いて、ステップS109では、小型化部106が、ステップS108にて求めた領域重要度に基づいて、小型化画像を生成し、出力部107を介して出力する。
元の画像のサイズに対して、どの程度小さいものにするかは、ユーザによって決定させるものとしてもよいし、予め一定の割合、例えば0.5等として決めておいてもよい。
基本的には、「重要な領域ほど削除せず、変化もさせないように画像を小型化する。言い換えれば、重要でない領域ほど、削除・変化をゆるす」という方針に基いて小型化する。
これを実現するために、本実施の形態の一例では、最適化に基づく方法を採用する。小型化された画像Iに対して、I(x,y)をその画素値、f(x,y)をその座標における重要度であるとする。ここで、最適化する目的関数e(I)を、下記の式(3)に示すように定める。
Figure 2013008142
ここで、δ(I(x,y))は、画像Iの座標(x,y)における画素値と、その周辺の画素値の差分量である。λはパラメータであり、例えば0.1等として定めればよい。この目的関数e(I)は、すなわち、より画素の変化(局所テクスチャ)が大きい座標であり、かつ重要度の高い座標ほど重要であるいう考えのもとに設計されたものである。
当該目的関数を最大化するような画像I(x,y)を求める。ここでは、このような小型化画像を得るための3つの異なる方法について説明する。
(1)クロッピング
クロッピングは、指定されたサイズの矩形領域のうち、矩形領域内の目的関数の値が最大になるような位置を探索し、この部分以外を切り取ることによって小型化する方法である。
図6を用いて、この処理を説明する。元の画像のサイズが横X,縦Yであるとする。仮に、半分のサイズに小型化する場合、矩形領域は横X/2,縦Y/2となる。この矩形領域を使って元画像をスキャンし、目的関数が最大になる位置を探しだす。
まず、元画像のはじまり、すなわち、x=0,y=0から、矩形領域(の左上部)を当てはめ、矩形領域内における目的関数の値を計算する。次に、1ピクセルずらしてx=1,y=0の点で同様に目的関数の値を計算する。
同様に1ピクセルずつずらしながら目的関数の値を計算していき、最終的に全走査が終了した時点で、目的関数の値が最大となった位置を最適矩形領域として決定する。そして、この最適矩形領域を小型化画像として切り出し、出力する。
(2)リターゲティング
リターゲティングは、指定されたサイズになるまで、最も重要度の低いピクセル群から順番に、逐次削除していく方法である。seam carving同様、動的計画法を用いて、1ステップごとに、縦又は横1ピクセル(1行/1列)分を除去していく。
ここで、式(3)に示した、画像全体の目的関数に対して、ピクセル(x,y)単位でのピクセル目的関数d(x,y)を式(4)に示すように定義しておく。
Figure 2013008142
このピクセル目的関数によって、画像上の各ピクセルにおける値を計算しておく。
図7を用いて、動的計画法による縦1ピクセル分を除去する(横方向に1ピクセル分縮小させる)処理を説明する。簡単のため、図7では画像のサイズを横4×縦3としているが、より大きなサイズの画像であっても、そのエッセンスは同様である。
(a)まず、各ピクセル(ピクセルA〜L)についてピクセル目的関数の値を計算する。図7では、この値を()内に記載してある。この例では、A〜Lの順に、2,3,1,5,5,6,8,3,1,2,9,2である。1行目(ピクセルA〜D)には、便宜上、()外に、()内と同じ値を記載してある。
(b)次に、2行目(ピクセルE〜H)に着目し、ピクセル毎に、周辺の8近傍に含まれる1行目のピクセルを調べ、その()外の値のうち最も小さい値を()内の値に加算する。
ここで、ピクセルFの場合を例にとって説明する。8近傍とは、着目しているピクセルの上下左右、及び斜め4方向に位置する8個のピクセルである。ピクセルFに着目した場合は、A,B,C,E,G,I,J,Kの8つに相当する。
このうち、1行目にあるピクセルは、A,B,Cの3つであるから、それらの()外の値のうち最も小さい値は、ピクセルCの1ということになる。よって、Fの()内の値6に1を加え、Fの()外に7を記載する。ピクセルE,G,Hに対しても同様に計算を実行する。
(c)次に、3行目以降も同様に、ピクセル毎に、8近傍に含まれる1行前のピクセルの()外の値のうち、最も小さい値を()内の値に加算する。
(d)次に、最終行まで計算し終えた時点で、最終行の中で、()外の値が最も小さいピクセルを選び、選択する。図7の例では、()外の値が6であるピクセルLを選択することになる。
(e)手前の行に遡って行き、順に()外の値が最も小さいピクセルを選んで選択していく。ただし、遡る際にも同様に8近傍に含まれるものに限る。図7の例では、2行目からH,1行目からCを選択することとなる。
(f)最後に、選択されたピクセルを除去することで、横方向に1列縮小した小型化画像が得られる。
なお、上の例では、横方向を縮める処理を示したが、縦方向についても同様のやり方で縮小できる。
以降、目標とするサイズ、例えば、半分のサイズの小型化画像になるまで、(b)〜(f)の処理を繰り返す。
結果、例えば、図8に示すような小型化が実現できる。前述のクロッピングでは、重要な領域が複数、離れて存在しているような場合、どちらかを縮小画像に含められないような場合が生じてくる。
しかしながら、リターゲティングによって得た画像は、重要な領域が離れた場所にある場合でも、両者の間のピクセルが除去されていくので、双方を残した小型化画像を得ることができるメリットがある。
一方で、リターゲティングは元の画像を非線形に縮尺するため、クロッピングに比べて不自然に見える画像が生成されやすいというデメリットもある。そこで、クロッピング、リターゲティング双方のデメリットを補うため、これらを合わせて用いる方法を用いてもよい。
(3)クロッピング+リターゲティング
基本的には、まず、リターゲティングで1行/列分を除去した小型化画像Irと、元画像よりも1行/列分小さい矩形領域を用いたクロッピングにより得られる小型化画像Icをそれぞれ生成し、それぞれの目的関数の値e(Ir)とe(Ic)を計算する。
その後、両者を比較し、より大きい値をとった方の小型化画像を採用する。
上記の処理を、目的のサイズになるまで繰り返すことで、クロッピング、リターゲティング両方を用いながら、式(3)を最大化する小型化画像を得ることができる。
また、1行/列ずつ目的関数の値を計算し、比較する処理を行うと、計算時間がかかるという問題もある。この場合には、1行/列ではなく、複数行/列を除去してから、目的関数の値を比較して選択するものとしてもよい。このようにすることで、比較に要する計算時間を削減し、処理を効率化することができる。
以上のように生成した小型化画像を、出力部107を介して出力する。
以上が、本実施の形態の一例における画像処理装置、及び当該装置で実行される画像処理方法の説明である。この画像処理方法で実施される処理プロセスを、コンピュータで読み取り可能なプログラムとして記述することも可能であることはいうまでもない。
以上、本実施の形態の一例における画像処理装置について詳細に説明した。本発明は、本実施の形態の一例に限定されるものでなく、特許請求の範囲に記載した技術的範囲において各種の変形を行うことが可能である。
本実施の形態によれば、事前登録されている登録画像の閲覧回数を用いて計算された符号の重要度を記憶した符号重要度帳110から、入力画像の特徴点に割り当てられた符号の重要度を取得し、その特徴点の領域の重要度を計算して、その特徴点の領域の重要度の大小に基づいて入力画像を小型化するので、任意の画像の重要領域を画像の閲覧回数から推定し、当該領域を重要領域として削除・変化させることなく小型化することができる。
本実施の形態によれば、入力画像の検索時に入力されたクエリに対応する符号の重要度を取得して、入力画像の特徴点の領域の重要度を計算するので、入力画像がどのようなクエリによって閲覧されたかを特定し、それに応じた重要度を求めることが可能となり、より適切に小型画像を生成できる。
本実施の形態によれば、領域の重要度を求める際に特徴点のスケールを考慮した関数を導入しているので、このスケールの影響を緩和し、より高精度な重要度推定を実施することができる。
本実施の形態によれば、入力画像の特徴点の領域の重要度と当該入力画像の局所テクスチャとにより定められる目的関数を最適化することによって、入力画像を小型化するので、これら双方の影響を考慮しながら、最適となる小型化画像を生成することができる。
1…画像処理装置
101…入力部
102…特徴点抽出部(特徴点抽出手段)
103…符号化部(符号化手段)
104…符号帳
105…領域重要度計算部(領域重要度計算手段)
106…小型化部(小型化手段)
107…出力部
108…情報取得部(情報取得手段)
109…符号重要度計算部(符号重要度計算手段)
110…符号重要度帳
111…画像データベース
112…画像群(登録画像)
113…入力画像
114…小型化画像
S101〜S109…処理ステップ

Claims (8)

  1. 検索された画像を入力画像とし、小型化する画像処理装置において、
    記憶手段から登録画像及び登録画像の閲覧回数を取得する情報取得手段と、
    前記登録画像及び前記入力画像に含まれる領域の特徴量を求めて特徴点として抽出する特徴点抽出手段と、
    特徴点の特徴量と符号とを対応付けた符号帳データを用いて、前記抽出された特徴点に符号を割り当てる符号化手段と、
    前記登録画像の閲覧回数を用いて、当該登録画像の特徴点に割り当てられた符号の重要度を計算し、符号重要度帳データに記憶する符号重要度計算手段と、
    前記符号重要度帳データから、前記入力画像の特徴点に割り当てられた符号の重要度を取得し、当該特徴点の領域の重要度を計算する領域重要度計算手段と、
    前記領域の重要度の大小に基づいて前記入力画像を小型化する小型化手段と、
    を有することを特徴とする画像処理装置。
  2. 前記登録画像の閲覧回数は、当該登録画像の検索時に入力されたクエリ毎の閲覧回数であって、
    前記符号重要度計算手段は、前記符号の重要度をクエリ毎に計算し、
    前記領域重要度計算手段は、
    前記入力画像の検索時に入力されたクエリに対応する符号の重要度を取得して、前記特徴点の領域の重要度を計算することを特徴とする請求項1記載の画像処理装置。
  3. 前記領域重要度計算手段は、
    前記入力画像の特徴点に割り当てられた符号の重要度と、当該特徴点の中心座標及び大きさにより定められる関数との二項演算によって定められる値の線形演算によって、当該特徴点の領域の重要度を計算することを特徴とする請求項1又は2記載の画像処理装置。
  4. 前記小型化手段は、
    前記入力画像の特徴点の領域の重要度と当該入力画像の局所テクスチャとにより定められる目的関数を最適化することによって、前記入力画像を小型化することを特徴とする請求項1乃至3のいずれかに記載の画像処理装置。
  5. 前記登録画像の閲覧回数は、当該登録画像を構成する領域毎の閲覧回数であって、
    前記符号重要度計算手段は、
    前記登録画像の特徴点に対応する領域が閲覧された閲覧回数に応じて、当該登録画像の特徴点に割り当てられた符号の重要度を計算することを特徴とする請求項1乃至4のいずれかに記載の画像処理装置。
  6. 検索された画像を入力画像とし、小型化する画像処理装置で行う画像処理方法において、
    記憶手段から登録画像及び登録画像の閲覧回数を取得する情報取得ステップと、
    前記登録画像に含まれる領域の特徴量を求めて特徴点として抽出する第1特徴点抽出ステップと、
    特徴点の特徴量と符号とを対応付けた符号帳データを用いて、前記抽出された登録画像の特徴点に符号を割り当てる第1符号化ステップと、
    前記登録画像の閲覧回数を用いて、当該登録画像の特徴点に割り当てられた符号の重要度を計算し、符号重要度帳データに記憶する符号重要度計算ステップと、
    前記入力画像に含まれる領域の特徴量を求めて特徴点として抽出する第2特徴点抽出ステップと、
    前記符号帳データを用いて、前記抽出された入力画像の特徴点に符号を割り当てる第2符号化ステップと、
    前記符号重要度帳データから、前記入力画像の特徴点に割り当てられた符号の重要度を取得し、当該特徴点の領域の重要度を計算する領域重要度計算ステップと、
    前記領域の重要度の大小に基づいて前記入力画像を小型化する小型化ステップと、
    を有することを特徴とする画像処理方法。
  7. 前記登録画像の閲覧回数は、当該登録画像の検索時に入力されたクエリ毎の閲覧回数であって、
    前記符号重要度計算ステップは、前記符号の重要度をクエリ毎に計算し、
    前記領域重要度計算ステップは、
    前記入力画像の検索時に入力されたクエリに対応する符号の重要度を取得して、前記特徴点の領域の重要度を計算することを特徴とする請求項6記載の画像処理方法。
  8. 請求項6又は7記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2011139538A 2011-06-23 2011-06-23 画像処理装置、画像処理方法及び画像処理プログラム Withdrawn JP2013008142A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011139538A JP2013008142A (ja) 2011-06-23 2011-06-23 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011139538A JP2013008142A (ja) 2011-06-23 2011-06-23 画像処理装置、画像処理方法及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2013008142A true JP2013008142A (ja) 2013-01-10

Family

ID=47675453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011139538A Withdrawn JP2013008142A (ja) 2011-06-23 2011-06-23 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2013008142A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5603972B1 (ja) * 2013-06-03 2014-10-08 日本電信電話株式会社 データ処理装置、データ処理システム及びデータ処理方法
JP2014207609A (ja) * 2013-04-15 2014-10-30 日本放送協会 画像処理装置及びプログラム
JP2014236238A (ja) * 2013-05-30 2014-12-15 日本電信電話株式会社 映像表示方法及び映像表示プログラム
JP2018156474A (ja) * 2017-03-17 2018-10-04 ヤフー株式会社 解析装置、情報提供装置、解析方法、およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014207609A (ja) * 2013-04-15 2014-10-30 日本放送協会 画像処理装置及びプログラム
JP2014236238A (ja) * 2013-05-30 2014-12-15 日本電信電話株式会社 映像表示方法及び映像表示プログラム
JP5603972B1 (ja) * 2013-06-03 2014-10-08 日本電信電話株式会社 データ処理装置、データ処理システム及びデータ処理方法
JP2018156474A (ja) * 2017-03-17 2018-10-04 ヤフー株式会社 解析装置、情報提供装置、解析方法、およびプログラム

Similar Documents

Publication Publication Date Title
CN110738207B (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
EP2989607B1 (en) Method and device for performing super-resolution on an input image
CN114155543B (zh) 神经网络训练方法、文档图像理解方法、装置和设备
JP4545641B2 (ja) 類似画像検索方法,類似画像検索システム,類似画像検索プログラム及び記録媒体
JP4918776B2 (ja) 電子文書比較プログラム、電子文書比較装置および電子文書比較方法
US20230245266A1 (en) Generating digital images utilizing high-resolution sparse attention and semantic layout manipulation neural networks
CN110413816B (zh) 彩色草图图像搜索
AU2018202767B2 (en) Data structure and algorithm for tag less search and svg retrieval
US20100250588A1 (en) Image searching system and image searching method
CN110347868B (zh) 用于图像搜索的方法和系统
US20160005175A1 (en) Service provision device, and method
KR20190124436A (ko) 영상 기반 건물 검색 방법 및 장치
US11647294B2 (en) Panoramic video data process
Oliveira et al. A novel Genetic Algorithms and SURF-Based approach for image retargeting
CN111612004A (zh) 一种基于语义内容的图像裁剪方法及装置
JP2013008142A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Jayanthiladevi et al. Text, images, and video analytics for fog computing
JP4632830B2 (ja) 画像検索方法及び画像検索装置
JP2022010842A (ja) 2次元マップ生成装置、2次元マップ生成方法および2次元マップ生成用プログラム
US20160283520A1 (en) Search device, search method, and computer program product
CN113766311B (zh) 用于确定视频中的视频段数的方法及装置
KR20170000288A (ko) 지리 정보 데이터 분할 방법, 분할 장치 및 이를 수행하는 프로그램을 기록하는 기록매체
JP5083162B2 (ja) 画像データ判定装置、画像データ判定システム、及びプログラム
JP2010092426A (ja) 画像処理装置、画像処理方法およびプログラム
CN104615614B (zh) 获取可伸缩全局特征描述子的方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902