JP2017219912A - 画像処理装置、画像領域検出方法および画像領域検出プログラム - Google Patents

画像処理装置、画像領域検出方法および画像領域検出プログラム Download PDF

Info

Publication number
JP2017219912A
JP2017219912A JP2016111766A JP2016111766A JP2017219912A JP 2017219912 A JP2017219912 A JP 2017219912A JP 2016111766 A JP2016111766 A JP 2016111766A JP 2016111766 A JP2016111766 A JP 2016111766A JP 2017219912 A JP2017219912 A JP 2017219912A
Authority
JP
Japan
Prior art keywords
image
images
specific
group
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016111766A
Other languages
English (en)
Other versions
JP6770227B2 (ja
Inventor
昌彦 杉村
Masahiko Sugimura
昌彦 杉村
正樹 石原
Masaki Ishihara
正樹 石原
遠藤 進
Susumu Endo
進 遠藤
武部 浩明
Hiroaki Takebe
浩明 武部
馬場 孝之
Takayuki Baba
孝之 馬場
上原 祐介
Yusuke Uehara
祐介 上原
渡部 康弘
Yasuhiro Watabe
康弘 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016111766A priority Critical patent/JP6770227B2/ja
Publication of JP2017219912A publication Critical patent/JP2017219912A/ja
Application granted granted Critical
Publication of JP6770227B2 publication Critical patent/JP6770227B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】画像集合の中から撮影者にとって重要な対象物を効率よく検出する。【解決手段】画像処理装置10は、選択部11および検出部12を備える。選択部11は、それぞれ撮影時刻が付加された複数の画像M1〜M4の中から、撮影時刻が連続し、かつ類似する画像M2、M3を同一のグループに分類し、分類されたグループの中から、画像枚数または撮影期間の長さに関する所定条件を満たす特定グループG1を選択する。検出部12は、選択された特定グループG1に含まれる画像M2、M3の間で共通性の高い領域を特定領域M2a、M3aとして検出する。【選択図】図1

Description

本発明は、画像処理装置、画像領域検出方法および画像領域検出プログラムに関する。
近年、スマートフォンやデジタルカメラなどの普及により、写真はデジタル画像データとして保存されることが一般的となっている。また、デジタル写真では、フィルム代がかからない等の理由により、同じ対象に対して複数枚撮影される傾向がある。
撮影された大量のデジタル写真は、通常、写真管理ソフトウェアなどによって管理されるが、デジタル写真を整理管理する際は、複数のデジタル写真の中から撮影者にとって重要な対象物(画像領域)が容易に見つけ出されることが望ましい。対象物が見つけ出しやすくなることにより、例えば、素材として必要な画像を検索しやすくなり、同じイベントの開催時の写真を集めて自動的に整理することができるなど、撮影者に利便性や娯楽性を提供することが可能になる。
対象物を検出する画像処理技術の例としては、デジタル写真から、顔認識アルゴリズムにより、類似する顔画像の検出および切り取りを行う画像処理方法が提案されている。
また、画像上で指定された注目領域と、領域抽出アルゴリズムで抽出される抽出領域との画像データを比較して類似度が高い領域抽出アルゴリズムを選択し、選択した領域抽出アルゴリズムによる抽出領域の画像データを表示する画像処理方法が提案されている。
特開2005−174308号公報 特開2010−262350号公報
画像集合の中から対象物を検出する場合、従来では、テンプレート画像を事前に準備し、対象となる画像とテンプレート画像とを比較して類似度が高い画像を抽出することが行われる。対象物が人物の場合では、例えば、顔のテンプレート画像を用意しておくことになる。しかし、撮影者にとって重要とみなされる対象物は様々なので、あらゆる対象を認識するためのテンプレート画像を事前に用意しておくことは困難である。
1つの側面では、本発明は、画像集合の中から撮影者にとって重要な対象物を効率よく検出することが可能な画像処理装置、画像領域検出方法および画像領域検出プログラムを提供することを目的とする。
1つの案では、画像処理装置が提供される。画像処理装置は、選択部および検出部を備える。選択部は、それぞれ撮影時刻が付加された複数の画像の中から、撮影時刻が連続し、かつ類似する画像を同一のグループに分類し、分類されたグループの中から、画像枚数または撮影期間の長さに関する所定条件を満たす特定グループを選択する。検出部は、特定グループに含まれる画像の間で共通性の高い領域を特定領域として検出する。
また、1つの案では、上記の画像処理装置に基づく処理と同様の処理を実行する画像領域検出方法が提供される。
さらに、1つの案では、上記の画像処理装置に基づく処理と同様の処理をコンピュータに実行させる画像領域検出プログラムが提供される。
1つの側面では、画像集合の中から撮影者にとって重要な対象物を効率よく検出することが可能になる。
第1の実施の形態に係る画像処理装置の構成例および処理例を示す図である。 第2の実施の形態に係る画像処理装置のハードウェア構成例を示す図である。 画像処理装置が備える処理機能の構成例を示すブロック図である。 画素ペア管理テーブルの構成例を示す図である。 局所特徴量を算出する処理の例を示す図である。 特徴量管理テーブルの構成例を示す図である。 特徴量算出処理の動作を示すフローチャートである。 投票処理を説明するための図である。 対応点管理テーブルの構成例を示す図である。 投票結果に基づく類似画像の判定処理について説明するための図である。 投票数の集中および分散について説明するための図である。 キー画像と、異なるサイズにコピーした対象画像との類似度判定を説明するための図である。 類似度情報管理テーブルの構成例を示す図である。 投票処理の例を示すフローチャートである。 グループIDが登録された類似情報管理テーブルの構成例を示す図である。 グループ管理テーブルの構成例を示す図である。 グループ選択処理の例を示すフローチャートである。 類似領域の設定処理を説明するための図である。 類似領域の重複部分と包含部分を求める際の処理を説明するための第1の図である。 類似領域の重複部分と包含部分を求める際の処理を説明するための第2の図である。 特定領域を求める際の処理を説明するための図である。 類似領域管理テーブルの構成例を示す図である。 特定領域管理テーブルの構成例を示す図である。 第1の特定領域検出処理の例を示すフローチャートである。 第2の特定領域検出処理を説明するための図である。 ベストショット管理テーブルの構成例を示す図である。 ベストショット抽出処理の例を示すフローチャートである。 サムネイル生成処理の例を示すフローチャートである。 画像表示の一例を示す図である。 画像表示の一例を示す図である。
以下、本発明の実施の形態について図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態に係る画像処理装置の構成例および処理例を示す図である。画像処理装置10は、選択部11および検出部12を備える。選択部11および検出部12の処理は、例えば、画像処理装置10が備えるプロセッサが所定のプログラムを実行することで実現される。
画像処理装置10は、複数の画像の中から、撮影者にとって重要な対象物を検出する。検出対象となる複数の画像のそれぞれには、属性情報として撮影時刻が付加されている。なお、これらの複数の画像は、例えば、画像処理装置が備える記憶装置に記憶されている。
選択部11は、上記の複数の画像の中から、撮影時刻が連続し、かつ類似する画像を、同一のグループに分類する。さらに、選択部11は、分類されたグループの中から、グループ内の画像の枚数またはそれらの撮影期間に関する所定条件を満たす特定グループを選択する。この条件とは、撮影者にとって重要な画像が含まれると判断可能な条件である。例えば、撮像画像の枚数が所定閾値以上のグループ、または、撮像期間が所定閾値以上のグループ、または、これらの条件と両方満たすグループなどが、特定グループとして選択される。これは、近接する時刻に多くの回数撮影された対象物ほど、また長い時間にわたって撮影された対象物ほど、撮影者が写真に残したかった対象物である可能性が高いと推定されるからである。検出部12は、選択された特定グループに含まれる画像の間で共通性の高い領域を、特定領域として検出する。
以下、図1に示す具体例を用いて処理例について説明する。なお、撮影時刻が早い順に画像M1、M2、M3、M4とする。
[ステップS1]選択部11は、画像M1〜M4を用いて、画像間の類似度を算出する。例えば、選択部11は、撮影時刻が隣り合う画像の類似度を算出する。すなわち、選択部11は、画像M1と画像M2の類似度、画像M2と画像M3の類似度および画像M3と画像M4の類似度を算出する。また、選択部11は、算出した類似度に基づき類似度の大小を判定する。図1の例では、画像M1と画像M2の類似度は小さく、画像M2と画像M3の類似度は大きく、画像M3と画像M4の類似度は小さいと判定されたとする。
[ステップS2]選択部11は、撮影時刻が連続し、かつ、類似度が大きいと判定された画像を同一のグループに分類する。画像M2と画像M3との類似度が大きいと判定されたので、画像M2、M3は同一のグループに分類される。また、選択部11は、分類されたグループの中から、前述の所定条件を満たすグループを特定グループとして選択する。図1の例では、画像M2、M3を含むグループが所定条件を満たすものであるとして、特定グループG1として選択されたとする。
なお、類似度に基づくグループの分類方法は、上記の方法に限らない。例えば、選択部11は、ある画像を基準として、その後に撮影された複数の画像との類似度を算出し、基準画像とそれに連続する類似画像とをグループ化してもよい。例えば図1において、画像M1と画像M2、M3とが類似するが、画像M1と画像M4とは類似しないと判定されたとする。この場合、画像M1〜M3が同一のグループに分類される。
[ステップS3]検出部12は、特定グループG1に含まれる画像の間で共通性の高い部分を特定領域として検出する。画像M2、M3のそれぞれの共通性の高い部分を画像領域M2a、M3aとすると、画像領域M2a、M3aが特定領域として検出されることになる。なお、検出部12は、例えば、特定領域の検出結果に基づき、画像M2、M3の少なくとも一方を用いて出力画像を生成し、出力してもよい。例えば、画像M2から画像領域M2aを切り出すことで出力画像が生成される。
このように、画像処理装置10は、撮像時刻が連続し、かつ、類似度の大きな画像を同一グループに分類して、該グループの中から重要画像が含まれると判断可能な条件を満たす特定グループを選択する。そして、画像処理装置10は、特定グループ内の画像から共通性の高い特定領域を検出する。これにより、テンプレート画像を準備することなく、撮影者が重要とみなす対象物を効率よく検出することが可能になる。
[第2の実施の形態]
次に、第2の実施の形態として、撮像画像間の類似度を計算する際に、画像の特徴量としてBRIEF(Binary Robust Independent Elementary Features)を用いて計算する画像処理装置について説明する。
ここで、画像マッチング技術において、キー画像の特徴点における局所特徴量と、キー画像を除く画像(以下、「対象画像」と呼ぶ)の特徴点における局所特徴量とを比較して、キー画像の特徴点に対応する対象画像の特徴点(以下、「対応点」と呼ぶ)を探索する手法が利用される。探索により発見された対応点の集合を統計処理することで、対象画像におけるキー画像の存在やキー画像の位置を認識できる。
このような対応点の探索に利用される局所特徴量をバイナリコードで表す方法の代表例がBRIEFである。BRIEFは、特徴点の周囲に設定された複数の画素ペアのそれぞれについて計算された画素間の輝度差に基づく局所特徴量で表現される。具体的には、輝度差の符号(正負)に対応するビット値の集合が局所特徴量として利用される。このように局所特徴量をバイナリコードで表す方法では、ハミング距離による高速な計算によって特徴点同士の類似度を算出できるというメリットがある。
なお、第2の実施の形態では、画像の特徴量としてBRIEFを用いるが、例えば、ORB(Oriented Fast and Rotated BRIEF)、BRISK(Binary Robust Invariant Scalable Keypoints)など、特徴点付近に設定した画素ペア間の輝度差を2値化することで得られる他の種類のバイナリ特徴量(以下、輝度差特徴量)を用いることもできる。
<ハードウェア構成>
図2は、第2の実施の形態に係る画像処理装置のハードウェア構成例を示す図である。第2の実施の形態に係る画像処理装置100は、例えば、図2に示すようなコンピュータとして実現される。
画像処理装置100は、プロセッサ101によって装置全体が制御されている。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。またプロセッサ101は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。
プロセッサ101には、バス108を介して、RAM(Random Access Memory)102と複数の周辺機器が接続されている。
RAM102は、画像処理装置100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。
バス108に接続されている周辺機器としては、HDD(Hard Disk Drive)103、グラフィック処理装置104、入力インタフェース105、読み取り装置106および通信インタフェース107がある。
HDD103は、画像処理装置100の補助記憶装置として使用される。HDD103には、OSプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、SSD(Solid State Drive)などの他の種類の不揮発性記憶装置を使用することもできる。
グラフィック処理装置104には、表示装置104aが接続されている。グラフィック処理装置104は、プロセッサ101からの命令に従って、画像を表示装置104aに表示させる。表示装置104aとしては、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイなどがある。
入力インタフェース105には、入力装置105aが接続されている。入力インタフェース105は、入力装置105aから出力される信号をプロセッサ101に送信する。入力装置105aとしては、キーボードやポインティングデバイスなどがある。ポインティングデバイスとしては、マウス、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
読み取り装置106には、可搬型記録媒体106aが脱着される。読み取り装置106は、可搬型記録媒体106aに記録されたデータを読み取ってプロセッサ101に送信する。可搬型記録媒体106aとしては、光ディスク、光磁気ディスク、半導体メモリなどがある。
通信インタフェース107は、ネットワーク107aを介して他の装置との間でデータの送受信を行う。
以上のようなハードウェア構成によって、画像処理装置100の処理機能を実現することができる。
上記の画像処理装置100の記憶装置(例えば、HDD103)には、複数の撮像画像のデータが記憶される。これらの撮像画像は、撮像装置によって撮像された画像である。これらの撮像画像のデータは、例えば、可搬型記録媒体106aを用いて画像処理装置100の記憶装置に格納されてもよいし、あるいは、ネットワーク107aを介して画像処理装置100の記憶装置に格納されてもよい。
なお、画像処理装置100は、例えば、パーソナルコンピュータ、スマートフォンなどのユーザによって操作される端末装置として実現される。また、画像処理装置100は、ネットワーク上のサーバ装置として実現されてもよい。この場合、撮像画像のデータは、例えば、ユーザの端末装置からネットワークを介して画像処理装置100にアップロードされる。
<機能ブロック構成>
図3は、画像処理装置が備える処理機能の構成例を示すブロック図である。画像処理装置100は、記憶部110、画像取得部121、類似度算出部122、グループ選択部123、特定領域検出部124および結果出力部125を有する。
記憶部110は、画像処理装置100が備える記憶装置(例えば、RAM102またはHDD103)の記憶領域として実装される。記憶部110には、画像データ111、画素ペア管理テーブル112、特徴量管理テーブル113、対応点管理テーブル114、類似度情報管理テーブル115、グループ管理テーブル116、類似領域管理テーブル117、特定領域管理テーブル118およびベストショット管理テーブル119が記憶される。
画像データ111は、撮像装置によって撮像された撮像画像のデータを示す。記憶部110には、画像データ111が複数記憶される。また、各画像データ111には、属性情報として撮影時刻が付加されている。画素ペア管理テーブル112には、輝度差特徴量を算出するために利用される画素ペアの座標が登録される。特徴量管理テーブル113は、撮像画像ごとに用意される。特徴量管理テーブル113には、撮像画像内の特徴点ごとの輝度差特徴量が登録される。
対応点管理テーブル114は、撮像画像ごとに用意される。対応点管理テーブル114には、撮影時刻が隣接する2つの撮像画像であるキー画像と対象画像とに対して、キー画像の特徴点の座標および対象画像の対応点の座標が登録される。類似度情報管理テーブル115には、隣接する2つの画像の類似度判定結果が登録される。グループ管理テーブル116には、分類されたグループに対して、特定グループであるか否かの判定結果が登録される。
類似領域管理テーブル117は、特定グループごとに用意される。類似領域管理テーブル117には、隣接する2つの画像の類似領域の座標が登録される。特定領域管理テーブル118は、特定グループごとに用意される。特定領域管理テーブル118には、特定領域としての重複部分の座標および特定領域としての包含部分の座標が登録される。ベストショット管理テーブル119は、特定グループごとに用意される。ベストショット管理テーブル119には、特定領域の品質指標およびベストショット画像の抽出結果が登録される。
画像取得部121、類似度算出部122、グループ選択部123、特定領域検出部124および結果出力部125の処理は、例えば、所定のプログラムがプロセッサ101に実行されることによって実現される。
画像取得部121は、撮像画像の画像データ111を取得して記憶部110に格納する。例えば、画像取得部121は、撮像画像の画像データ111を可搬型記録媒体106aを介して、あるいはネットワーク107aを介して取得する。
類似度算出部122は、画像データ111および画素ペア管理テーブル112を参照しながら、撮像画像内の各特徴点についての輝度差特徴量を算出し、算出した輝度差特徴量を特徴量管理テーブル113に登録する。また、類似度算出部122は、撮影時刻が隣接する撮像画像ペア間の類似度を判定し、判定結果を類似度情報管理テーブル115に登録する。この類似度判定処理では、類似度算出部122は、特徴量管理テーブル113に登録されたキー画像の特徴点に対応する対象画像の対応点を見つけて、特徴点と対応点とのペアを対応点管理テーブル114に登録する。さらに、類似度算出部122は、特徴点と対応点とのペアに基づき、後述の投票処理を行ってキー画像と対象画像との類似度を判定する。
グループ選択部123は、類似度情報管理テーブル115を参照して、類似度の大きな画像を同一グループに分類し、分類したグループが所定条件を満たす特定グループであるか否かを判定して判定結果をグループ管理テーブル116に登録する。
特定領域検出部124は、特定グループに含まれる画像中の類似領域の重ね合わせを行った際の第1の重ね合わせ範囲を特定領域として検出する第1の特定領域検出処理を行う。または、特定領域検出部124は、特定グループに含まれる画像の重ね合わせを行った際の第2の重ね合わせ範囲を特定領域として検出する第2の特定領域検出処理を行う。
また、第1の特定領域検出処理を行う場合、特定領域検出部124は、特定グループ内の画像の類似領域を求めて類似領域の座標を類似領域管理テーブル117に登録し、類似領域を重ね合わせた際の重複部分の座標および包含部分の座標を特定領域管理テーブル118に登録する。
また、特定領域検出部124は、検出した特定領域を用いて、サムネイル画像の生成およびベストショット画像の抽出を行い、ベストショット画像の抽出結果を、ベストショット管理テーブル119に登録する。
結果出力部125は、特定領域の検出結果を用いて生成または選択された画像を出力する。例えば、結果出力部125は、特定領域管理テーブル118に基づいて、特定グループに含まれる画像のサムネイル画像を画面上に表示させる。また、結果出力部125は、ベストショット管理テーブル119に基づいて、特定グループに含まれる画像の中からベストショット画像を選択し、画面上に表示させる。
<特徴量算出処理>
次に、類似度算出部122による特徴量算出処理について詳しく説明する。
類似度算出部122は、撮像画像上に特徴点を設定する。特徴点は、各撮像画像で共通に設定される。本実施の形態では例として、撮像画像上に等間隔(例えば、24画素間隔)で特徴点を設定するDense Samplingを用いる。そして、類似度算出部122は、各撮像画像の各特徴点についての輝度差特徴量を算出する。
輝度差特徴量は、各特徴点を中心とする一定領域(以下、「特徴領域」と呼ぶ)ごとに算出される。特徴領域は、例えば、特徴点を中心とする48画素四方の矩形領域とされる。また、特徴領域の内部には、複数の画素ペアがあらかじめ設定される。ある特徴点の特徴量は、対応する特徴領域内の各画素ペアの輝度差に基づく符号を組み合わせて構成されたビット列として算出される。
図4は、画素ペア管理テーブルの構成例を示す図である。画素ペアを構成する各画素の座標は、画素ペア管理テーブル112にあらかじめ登録されている。図4に示すように、画素ペア管理テーブル112には、画素ペアを識別するためのIDと、画素ペアを構成する第1画素および第2画素の各座標とが登録される。画素ペアは、例えば、ランダムに設定される。画素ペア管理テーブル112に登録された画素ペアの情報は、すべての特徴領域に対して共通に適用される。
図5は、局所特徴量を算出する処理の例を示す図である。図5では、画像200における各特徴点の局所特徴量を、この画像200に対応する特徴量管理テーブル113に登録する処理の例を示す。
例えば、画像200に設定された特徴点201の局所特徴量は、次のようにして算出される。類似度算出部122は、特徴点201に対応する特徴領域202について、各画素ペアの輝度差を計算する(ステップS11)。画素ペアの輝度差は、例えば、画素ペア管理テーブル112における第1画素の輝度値から第2画素の輝度値を減算することで得られる。
類似度算出部122は、算出された輝度差の符号に応じたビット値を組み合わせることでビット列203を生成する(ステップS12)。例えば、類似度算出部122は、画素ペア順に、輝度差が正値の場合にはビット値“1”を、輝度差が0以下の場合にはビット値“0”をビット列に付加する。例えば、M組の画素ペアが設定されている場合、Mビットのビット列が生成される。類似度算出部122は、生成されたビット列203を、特徴点201の局所特徴量として特徴量管理テーブル113に登録する(ステップS13)。
図6は、特徴量管理テーブルの構成例を示す図である。前述のように、図6に示す特徴量管理テーブル113は、撮像画像ごとに用意される。
特徴量管理テーブル113には、撮像画像内の特徴点ごとにレコードが登録される。各レコードには、ID、特徴点座標および輝度差特徴量が登録される。IDは、撮像画像内の特徴点を識別するための識別番号を示す。特徴点座標は、特徴点の座標を示す。輝度差特徴量の項目には、特徴点の輝度差特徴量を示すビット列が登録される。
図7は、特徴量算出処理の動作を示すフローチャートである。
[ステップS21]類似度算出部122は、処理対象の撮像画像から特徴点を1つ選択する。また、類似度算出部122は、画素ペア管理テーブル112から画素ペアを1つ選択する。類似度算出部122は、選択された特徴点に対応する特徴領域内の画素ペアのうち、選択された画素ペアについて、画素ペアの輝度値の差と閾値の0とを比較し、比較結果に基づいて輝度差特徴量のビット値を決定する算出処理を行う。例えば、画素ペアの輝度値の差が0より大きい場合はビット値を“1”とし、画素ペアの輝度値の差が0以下の場合はビット値を“0”と決定する。
[ステップS22]類似度算出部122は、1つの特徴点における特徴領域内のすべての画素ペアについてステップS21が処理済みかを判定する。処理済みでない画素ペアがある場合、ステップS21に戻り、他の画素ペアが選択される。すべての画素ペアについて処理済みの場合、ステップS23の処理が実行される。
[ステップS23]類似度算出部122は、1つの撮像画像内のすべての特徴点についてステップS21が処理済みかを判定する。処理済みでない特徴点がある場合、ステップS21に戻り、他の特徴点が選択される。すべての特徴点について処理済みの場合、ステップS24の処理が実行される。
[ステップS24]類似度算出部122は、記憶部110に記憶されたすべての撮像画像についてステップS21が処理済みかを判定する。処理済みでない撮像画像がある場合、ステップS21に戻り、他の撮像画像が選択される。すべての撮像画像について処理済みの場合、特徴量算出処理を終了する。
<投票処理>
次に、類似度算出部122による投票処理について詳しく説明する。なお、撮影時刻が隣接する撮像画像ペアのうち、撮影時刻が早い方がキー画像に設定され、撮影時刻が遅い方が対象画像に設定されるものとする。
類似度算出部122は、キー画像上の特徴点ごとに次のような処理を実行する。類似度算出部122は、キー画像上の特徴点と対象画像上の対応点とが一致するように対象画像にキー画像を重ねた場合の、対象画像におけるキー画像の中心位置を推定する。類似度算出部122は、対象画像の各画素のうち、推定された中心位置の画素に対して投票する。類似度算出部122は、対象画像の画素のうち、投票数が最大の画素を判別し、判別した画素の投票数が所定の閾値を超えている場合に、対象画像をキー画像に類似する画像と判定する。
図8は、投票処理を説明するための図である。図8では、キー画像210の特徴点211と類似する対象画像220の対応点を探索する処理の例を示す。類似度算出部122は、例えば、キー画像210の特徴点211の輝度差特徴量と、対象画像220の各特徴点の輝度差特徴量とのハミング距離を計算することで、対応点を探索する(ステップS31)。なお、キー画像210の特徴点の座標と、対象画像220の対応点の座標とは、類似度算出部122によって探索されて、対応点管理テーブル114上で登録管理される。
キー画像210の特徴点211に対する対応点を、対象画像220の特徴点221とする。このとき、類似度算出部122は、特徴点211と特徴点221(対応点)とが一致するように対象画像220にキー画像210を重ねた場合の、対象画像220におけるキー画像210の中心位置212を推定する(ステップS32)。
ここで、対象画像の横幅および高さの画素数をそれぞれwi、hiとし、キー画像の横幅および高さの画素数をそれぞれwr、hrとする。キー画像の特徴点(xr,yr)に対応する対象画像の対応点として対象画像の特徴点(xi,yi)が探索されたとすると、対象画像におけるキー画像の中心点の位置(xv,yv)は、次の式(1−1)、(1−2)を用いて算出される。
xv=xi・xr+(wr/2) ・・・(1−1)
yv=yi・yr+(hr/2) ・・・(1−2)
図8の特徴点211と特徴点221との対応関係に基づいて対象画像220におけるキー画像210の中心位置として画素222が推定されたとすると、類似度算出部122は、対象画像220の画素のうち、画素222に対して投票する。この投票処理には、例えば、対象画像220の各画素に対応するエントリを有する投票マップ130が用いられる。投票マップ130の各エントリの初期値は0とされる。図8の処理では、投票マップ130における画素222に対応するエントリに1が加算される(ステップS33)。
なお、実際には、類似度算出部122は、例えば、画素222を中心とした所定領域(例えば、10画素四方の矩形領域)に含まれる各画素に投票してもよい。これにより、キー画像210と対象画像220との違いに対してある程度ロバストな認識処理を行うことが可能になる。
図9は、対応点管理テーブルの構成例を示す図である。図9に示す対応点管理テーブル114は、キー画像として選択された撮像画像ごとに用意される。
対応点管理テーブル114には、キー画像の特徴点を識別するためのID、キー画像の特徴点の座標、対象画像の対応点の座標、および特定特徴点ペアの判定結果が登録される。特定特徴点ペアの判定結果は、特徴点と対応点とのペアが特定特徴点ペアと判定されたか否かを示し、特定特徴点ペアと判定されれば“○”、特定特徴点ペアでないと判定されれば“×”と登録される。なお、特定特徴点ペアとは、投票マップにおいて投票数が最大となったエントリに対する投票が行われた特徴点と対応点とのペアである。
図10は、投票結果に基づく類似画像の判定処理について説明するための図である。図10に示す投票マップ130aは、図8に示すような処理がキー画像210の各特徴点について実行された後の投票マップ130の状態を示す。類似度算出部122は、投票マップ130aにおける各画素についての投票数のうちの最大値を抽出し、この最大値が所定の閾値を超えているかを判定する。
ここで、キー画像210と対象画像220とに同じ対象物が写っている場合、キー画像210の特徴点と対象画像220の対応点との位置関係が、キー画像210の特徴点間で同じ場合が多い。この場合、投票マップ130aにおける同じ画素に対応するエントリに投票数が集中する。
一方、キー画像210と対象画像220との関連性が低い場合、キー画像210の特徴点と対象画像220の対応点との位置関係が、キー画像210の特徴点間で異なる場合が多い。この場合、投票マップ130aにおいて投票数が分散する。
図11は、投票数の集中および分散について説明するための図である。図11の例では、キー画像210aの特徴点a11と、対象画像220aの対応点a12との位置関係Aは、キー画像の特徴点間で同じである。また、キー画像210aの特徴点b11と、対象画像220aの対応点b12との位置関係Bは、キー画像の特徴点間で同じである。さらにキー画像210aの特徴点c11と、対象画像220aの対応点c12との位置関係Cは、キー画像の特徴点間で同じである。このため、位置関係A、B、Cに基づく対象画像220aにおけるキー画像210aの中心位置は、投票マップ130bに対して、同じ画素に投票数が集中する。
一方、キー画像210aの特徴点d11と、対象画像220aの対応点d12との位置関係Dは、キー画像の特徴点間で異なる。また、キー画像210aの特徴点e11と、対象画像220aの対応点e12との位置関係Eは、キー画像の特徴点間で異なる。このため、位置関係Dに基づく対象画像220aにおけるキー画像210aの中心位置と、位置関係Eに基づく対象画像220aにおけるキー画像210aの中心位置とは集中せず、投票マップ130bに対して投票数が分散する。
このような投票処理を行うことで、投票マップにおける投票数の最大値が閾値を超えた場合には、投票数が同じ画素に集中していると推定されるため、キー画像210と対象画像220とに同じ対象物が写っている可能性が高いと判断できる。このことから、類似度算出部122は、投票数の最大値が閾値を超えた場合、対象画像220をキー画像210に類似する画像であると判定する。
なお、実際には、対象画像220における特徴点の数によって投票数の最大値が影響を受けることから、例えば、対象画像220における特徴点の数で投票数を除算するなどの正規化処理が行われた上で、閾値との比較が行われることが望ましい。
ここで、キー画像と対象画像とで対象物が写っている領域の大きさが異なる場合には、キー画像と対象画像とをそのまま用いて上記処理を実行すると、対応点を正確に検出できず、類似判定精度が低下する。そこで、類似度算出部122は、対象画像を複数(例えば、M枚)の互いに異なるサイズにコピーし、1枚のキー画像と、サイズが異なるM枚の対象画像とに対して投票処理をM回行う。
図12は、キー画像と、異なるサイズにコピーした対象画像との類似度判定を説明するための図である。キー画像210のサイズと、対象画像220のサイズとが異なる場合、類似度算出部122は、対象画像220をサイズの異なる複数の対象画像220−1〜220−Mを生成する。
そして、類似度算出部122は、対象画像220−1〜220−Mのそれぞれと、キー画像210とに投票処理を行う。図12の例では、対象画像220−1〜220−Mの中で、対象画像220−3の投票数の最大値が最も高くその最大値が閾値を超えるとすれば、キー画像210の類似画像は対象画像220−3と判定される。なお、対象画像のサイズごとに類似判定を行った結果は、類似度情報管理テーブル115によって登録管理される。
図13は、類似度情報管理テーブルの構成例を示す図である。類似度情報管理テーブル115には、画像ID、最大値画素位置、サイズ、類似度判定結果およびグループIDが登録される。画像IDは、キー画像の識別番号であり、撮影時刻が早い順に若番が付される。最大値画素位置は、投票数が最大値となる画素の座標位置である。サイズは、対象画像のサイズである。なお、対象画像は、撮影時刻がキー画像の次に早い撮像画像を示す。例えば、画像ID=1のキー画像に対応する対象画像は、画像ID=2の撮像画像である。
類似度判定結果は、例えば、キー画像と、あるサイズの対象画像とが類似と判定されれば“○”、非類似と判定されれば“×”と登録される。図13の例では、画像ID=1のキー画像と、サイズs1の対象画像とは類似と判定されている。また、画像ID=3のキー画像と、サイズs3の対象画像とは非類似と判定されている。
グループIDは、類似画像をグループ分けしたときにグループ識別するためのIDであり、グループ選択部123による後述のグループ選択処理時に登録される。
図14は、投票処理の例を示すフローチャートである。図14に示す処理は、記憶部110に記憶された画像データ111に対し、撮影時刻が早い順に画像IDを1〜Nと設定された際に、画像IDが1からN−1までの画像に対して行われるものである。
[ステップS41]類似度算出部122は、画像IDがnの画像をキー画像A、画像IDがn+1の画像を対象画像Bとして選択する。なお、nの初期値は1である。
[ステップS42]類似度算出部122は、キー画像Aを予め決められたサイズに拡大または縮小する。また、類似度算出部122は、対象画像Bを予め決められた複数枚の異なるサイズに拡大または縮小して、対象画像B1、B2、…、BMを生成する。例えば、B1:横幅=800、B2:横幅=720、・・・、BM:横幅=230というように、異なるサイズの対象画像B1、B2、…、BMが生成される。
[ステップS43]類似度算出部122は、生成された異なるサイズの対象画像の中から1つを選択する(選択された対象画像をBmとする)。類似度算出部122は、対応点管理テーブル114を参照して、キー画像Aの特徴点と対象画像Bmの対応点とのペアを抽出する。なお、対応点管理テーブル114では、対応点の座標が、対象画像をキー画像と同じ大きさに正規化した場合の座標として登録されている。このため、ステップS43では、対象画像Bmの対応点の座標は、対応点管理テーブル114に登録された対応点の座標を対象画像Bmのサイズに応じて補正した座標となる。
[ステップS44]類似度算出部122は、キー画像Aの特徴点と対象画像Bmの対応点とのペアから、対象画像Bm中のキー画像Aの中心位置を上述の式(1−1)、(1−2)で計算し、投票マップへ投票する。
[ステップS45]類似度算出部122は、投票マップの中の投票数が最大値となる画素の座標を検出する。
[ステップS46]類似度算出部122は、対象画像B1〜BMまでステップS45が処理済みかを判定する。処理済みでない対象画像がある場合、ステップS43に戻り、他の対象画像が選択される。すべての対象画像について処理済みの場合、ステップS47の処理が実行される。
[ステップS47]類似度算出部122は、対象画像B1〜BMの中から投票数の最大値が最も高い対象画像(対象画像BSとする)を選択し、対象画像BSの投票数の最大値と閾値とを比較して類似判定を行う。類似度算出部122は、対象画像BSの投票数の最大値(すなわち、対象画像BSとキー画像Aとの類似度)が閾値以上の場合、対象画像BSとキー画像Aとが類似すると判定する。
[ステップS48]類似度算出部122は、対象画像BSの最大値画素位置、サイズ、類似判定結果を、類似度情報管理テーブル115におけるキー画像Aのレコードに登録する。
[ステップS49]類似度算出部122は、対応点管理テーブル114に特定特徴点ペアの判定結果を登録する。対象画像BSに対応する投票マップにおいて投票数が最大となった対応点と、キー画像Aにおける対応する特徴点とのペアが、特定特徴点ペアと判定される。類似度算出部122は、対応点管理テーブル114のレコードのうち、投票数が最大となった対応点を含むレコードに対して判定結果“○”を登録し、その他のレコードに対して判定結果“×”を登録する。
[ステップS50]類似度算出部122は、記憶部110に記憶された画像データ111のすべてに対してステップS48が処理済みかを判定する。処理済みでない画像がある場合、nに1が加算されてステップS41に戻り、現在のキー画像の次の画像が新たなキー画像として選択される。すべての画像について処理済みの場合は、投票処理は終了する。
<グループ選択処理>
次に、グループ選択部123によるグループ選択処理について詳しく説明する。
グループ選択部123は、撮影時刻が連続し、かつ類似度の高い画像を、1つのグループとしてまとめる。そして、グループ選択部123は、生成した複数のグループの中から、撮影者にとって重要な対象物が写っていることを推定するための所定条件を満たす特定グループを選択する。
例えば、同じ対象物が連続して多くの回数撮影された場合、その対象物は撮影者が写真に残したかったものである可能性が高い。また、同じ対象物が長い時間にわたって撮影された場合にも、その対象物は撮影者が写真に残したかったものである可能性が高い。そこで、グループ選択部123は、次のような条件にしたがって特定グループを判定する。1グループ内の撮像画像枚数をNとし、1グループ内の撮影時刻が最も早い撮像画像と最も遅い撮像画像との時間差をTとする。このとき、グループ選択部123は、Nが閾値Th1以上かつ、Tが閾値Th2以上の場合に(例えば、N≧3、T≧60秒)、そのグループを特定グループと判定する。
図15は、グループIDが登録された類似情報管理テーブルの構成例を示す図である。類似度情報管理テーブル115aは、図13に示した類似度情報管理テーブル115のグループIDのレコードに、グループを識別するためのIDが登録されている状態を示している。図15の例では、画像ID=1のキー画像と、サイズs1の対象画像とが類似し、画像ID=2のキー画像と、サイズs2の対象画像とが類似しており、これらの画像はグループID=g1のグループに入れられている。
図16は、グループ管理テーブルの構成例を示す図である。グループ管理テーブル116には、グループを識別するためのグループIDと、特定グループか否かを示す特定グループ判定結果とが登録される。例えば、特定グループと判定された場合は“○”、特定グループでない場合は“×”と登録される。
図17は、グループ選択処理の例を示すフローチャートである。図17に示す処理は、N枚の画像のうち、画像IDが1からN−1までの画像に行われるものである。
[ステップS51]グループ選択部123は、画像IDがnの画像をキー画像A、画像IDがn+1の画像を対象画像Bとして選択する。なお、nの初期値は1である。
[ステップS52]グループ選択部123は、類似度情報管理テーブル115aを参照し、キー画像Aと対象画像Bとの類似度判定結果が“○”の場合、そのキー画像Aと対象画像Bとを同じグループに分類する。この場合、グループ選択部123は、対象画像BにグループID:gαを割り当て、類似度情報管理テーブル115aに登録する。なお、αの初期値は1である。また、α=1の場合、グループ選択部123は、キー画像AにもグループID:gα(=g1)を割り当て、類似度情報管理テーブル115aに登録する。一方、グループ選択部123は、類似度情報管理テーブル115aを参照し、キー画像Aと対象画像Bとの類似度判定結果が“×”の場合は、αに1を加えて、対象画像BにグループID:gαを割り当て、類似度情報管理テーブル115aに登録する。
[ステップS53]グループ選択部123は、画像IDがn〜N−1までステップS52が処理済みかを判定する。処理済みでない画像がある場合、nに1が加算されてステップS51に戻り、現在のキー画像の次の画像が新たなキー画像として選択される。画像IDがn〜N−1の画像について処理済みの場合、ステップS54の処理が実行される。
[ステップS54]グループ選択部123は、特定グループか否かの判定処理を行う。例えば、グループ選択部123は、すべてのグループに対して、1つのグループに含まれる画像枚数が閾値Th1以上であり、かつ最初の画像の撮影時刻と最後の画像の撮影時刻との差が閾値Th2以上の場合、特定グループと判定する。
[ステップS55]グループ選択部123は、グループIDごとに特定グループ判定結果をグループ管理テーブル116に登録する。
このように、グループ選択部123では、グループ内の画像枚数が閾値Th1以上であり、かつグループ内の画像の撮影時刻の最も早い画像と最も遅い画像との時間差が閾値Th2以上を満たす場合のグループを、所定条件を満たす特定グループとする。これにより、1つのグループにおいて、撮影者によってたくさんの枚数および長い時間に渡って同じシーンが撮影されているか否かが判定できるので、撮影者が写真に残したかった重要対象物の画像が含まれるグループを特定することができる。
<第1の特定領域検出処理>
次に、特定領域検出部124による特定グループ内の画像からの特定領域検出処理について詳しく説明する。なお、特定領域検出処理としては、第1、第2の特定領域検出処理が考えられる。最初に第1の特定領域検出処理について説明する。
特定領域検出部124は、第1の特定領域検出処理を行う場合、隣り合う画像間の特定特徴点ペアについて、特徴点および対応点をそれぞれ包含する矩形の類似領域を各画像に設定する。そして、特定領域検出部124は、類似領域間で対応する位置の関係を保ちながら各類似領域を重ね合わせた際に、類似領域が共通する重複部分と、すべての類似領域を含む包含部分とを検出する。また、特定領域検出部124は、検出した重複部分と包含部分を、重ね合わせに使用したそれぞれの画像の座標に変換して、変換した領域を特定領域として登録する。
図18は、類似領域の設定処理を説明するための図である。図18は、図11に示したようにキー画像210aの特徴点と対象画像220aの対応点とが求められた場合の例を示す。この例では、対応点a12、b12、c12について、投票マップ130bにおける投票数が最大となったエントリに投票が行われている。すなわち、特徴点a11と対応点a12のペア、特徴点b11と対応点b12のペア、特徴点c11と対応点c12のペアが、特定特徴点ペアと判定される。
この場合、特定領域検出部124は、キー画像210aに対して、特徴点a11、b11、c11を包含する矩形領域を類似領域215に設定する。また、特定領域検出部124は、対象画像220aに対して、対応点a12、b12、c12を包含する矩形領域を類似領域225に設定する。そして、特定領域検出部124は、類似領域215、225の設定結果を用いて、類似領域の重複部分および包含部分を検出する。
類似領域215、225は、キー画像210aと対象画像220aとの間で局所的に類似度が高い領域であり、これはすなわち、同じ対象物が写っている可能性が高い領域である。したがって、上記の方法により、画像間の類似判定処理で得られた情報を用いて、隣接する画像から同じ対象物が写っている領域を高精度かつ効率よく検出することができる。例えば、類似領域215、225を設定するための特徴点と対応点とのペアは、対応点管理テーブル114において特定特徴点ペアの判定結果が“○”と登録されたペアとして特定できる。
図19は、類似領域の重複部分と包含部分を求める際の処理を説明するための第1の図である。同一の特定グループ内に画像が3枚ある例を示しており、撮影時刻が早い順に画像m1、m2、m3とする。なお、画像の左上が原点(0,0)、右下が(1,1)であり、画像内の座標は、画像の縦横の長さを1に正規化された値で表現される。例えば、横幅320、高さ240の画像の座標(50,50)は、(50/320,50/240)=(0.156,0.208)と表現される。
図19の例において、隣接する画像m1、m2に対して、画像m1の矩形領域a1は、画像m2の矩形領域a2に類似しており、矩形領域a1、a2は、隣接画像m1、m2間で対応する類似領域になっている。また、隣接する画像m2、m3に対して、画像m2の矩形領域b1は、画像m3の矩形領域b2に類似しており、矩形領域b1、b2は、隣接画像m2、m3間で対応する類似領域になっている。
ここで、矩形領域a1の左上座標を(H1,I1)とし、矩形領域a1の右下座標を(J1,K1)とする。また、矩形領域a2の左上座標を(h1,i1)とし、矩形領域a2の右下座標を(j1,k1)とする。このとき、矩形領域a1、a2が重なるように、画像m2の画素の座標(x2,y2)を画像m1の画素の座標(x1,y1)に変換する式は、以下の式(2−1)、(2−2)となる。
x1=(x2−h1)×(J1−H1)/(j1−h1)+H1・・・(2−1)
y1=(y2−i1)×(K1−I1)/(k1−i1)+I1・・・(2−2)
特定領域検出部124は、上記の式(2−1)、(2−2)にもとづく座標変換を行って、画像m1上における画像m2の矩形領域b1の座標位置を算出することができる。図19の座標変換の例では、画像m2上の矩形領域b1の座標(H2,I2)が画像m1上の座標(H21,I21)に変換され、画像m2上の矩形領域b1の座標(J2,K2)が画像m1上の座標(J21,K21)に変換されている。
また、画像m2の矩形領域b1を画像m1上の座標に変換した後の領域を矩形領域b1−1とすると、画像m1において、矩形領域a1と矩形領域b1−1の共通する矩形領域が重複部分となる。さらに、矩形領域a1と矩形領域b1−1のすべての領域を包含する矩形領域が包含部分となる。特定領域検出部124は、画像m1上のすべての矩形の重複部分と包含部分の左上と右下の座標を求める。
図20は、類似領域の重複部分と包含部分を求める際の処理を説明するための第2の図である。同一の特定グループ内に画像が4枚ある例を示しており、撮影時刻が早い順に画像m1、m2、m3、m4とする。なお、画像m1、m2、m3の間での類似領域の関係は図19と同様であるとする。
図20の例において、隣接する画像m3、m4に対して、画像m3の矩形領域c1は、画像m4の矩形領域c2に類似しており、矩形領域c1、c2は、隣接画像m3、m4間で対応する類似領域になっている。
ここで、矩形領域b2の左上座標を(h2,i2)とし、矩形領域b2の右下座標を(j2,k2)とする。このとき、矩形領域b1、b2が重なるように、画像m3の画素の座標(x3,y3)を画像m2の画素の座標(x2,y2)に変換する式は、以下の式(3−1)、(3−2)となる。
x2=(x3−h2)×(J2−H2)/(j2−h2)+H2・・・(3−1)
y2=(y3−i2)×(K2−I2)/(k2−i2)+I2・・・(3−2)
特定領域検出部124は、上記の式(3−1)、(3−2)にもとづく座標変換を行って、画像m2上における画像m3の矩形領域c1の座標位置を算出することができる。図20の座標変換の例では、画像m3上の矩形領域c1の座標(H3,I3)が画像m2上の座標(H31,I31)に変換され、画像m3上の矩形領域c1の座標(J3,K3)が画像m2上の座標(J31,K31)に変換されている。
画像m3の矩形領域c1を画像m2上の座標に変換した後の領域を矩形領域c1−1とすると、特定領域検出部124は、図19と同様にして、式(2−1)、(2−2)を用いてさらに矩形領域c1−1を画像m1の座標へ変換する。
図20の座標変換の例では、画像m2上の矩形領域c1−1の座標(H31,I31)が画像m1上の座標(H32,I32)に変換され、画像m2上の矩形領域c1−1の座標(J31,K31)が画像m1上の座標(J32,K32)に変換されている。
画像m2の矩形領域c1−1を画像m1上の座標に変換した後の領域を矩形領域c1−2とすると、画像m1において、矩形領域a1、矩形領域b1−1および矩形領域c1−2の共通する領域が重複部分となる。また、矩形領域a1、矩形領域b1−1および矩形領域c1−2のすべての領域を包含する矩形領域が包含部分となる。特定領域検出部124は、画像m1上のすべての矩形の重複部分と包含部分の左上と右下の座標を求める。
なお、本実施の形態では重複部分と包含部分の両方を求めるものとするが、最終的に出力すべき画像の種類によっては、重複部分と包含部分の一方だけを求めてもよい。
図21は、特定領域を求める際の処理を説明するための図である。特定領域とは、特定グループに含まれる各画像において、撮影者にとって重要な対象物が写っていると推定される領域である。図20に示したように画像m1上で重複部分と包含部分とを求めると、特定領域検出部124は、まず、これらの重複部分および包含部分を、画像m1における特定領域とする。さらに、特定領域検出部124は、画像m1上で求めた重複部分と包含部分を画像m2、m3、m4のそれぞれの座標に逆算し、逆算によって変換した領域を画像m2、m3、m4のそれぞれにおける特定領域とする。
図21の例において、画像m1上の矩形領域a1を画像m2上の矩形領域a2へ逆変換する場合、特定領域検出部124は、画像m2から画像m1への座標変換式の逆算となる以下の式(4−1)、(4−2)を用いて逆変換する。
x2=(x1−H1)×(j1−h1)/(J1−H1)+h1・・・(4−1)
y2=(y1−I1)×(k1−i1)/(K1−I1)+i1・・・(4−2)
また、特定領域検出部124は、画像m2上の矩形領域を画像m3上の矩形領域へ逆変換する場合、画像m3から画像m2への座標変換式の逆算を行って逆変換する。さらに、特定領域検出部124は、画像m3上の矩形領域を画像m4上の矩形領域へ逆変換する場合、画像m4から画像m3への座標変換式の逆算を行って逆変換する。特定領域検出部124は、このような逆変換を重複部分と包含部分に対して行って、それぞれの画像の座標に変換し、各画像における特定領域として検出する。
図22は、類似領域管理テーブルの構成例を示す図である。前述のように、類似領域管理テーブル117は、特定グループごとに用意される。類似領域管理テーブル117には、画像ID、類似領域r1、r2が登録される。
画像IDは、隣接する2つの画像のうち、撮影時刻が早い方の画像のIDを示す。類似領域r1は、隣接する2つの画像のうち、撮影時刻が早い方の画像における類似領域の左上座標および右下座標が登録される。また、類似領域r2は、隣接する2つの画像のうち、撮影時刻が遅い方の画像における類似領域の左上座標および右下座標が登録される。
図23は、特定領域管理テーブルの構成例を示す図である。前述のように、特定領域管理テーブル118は、特定グループごとに用意される。特定領域管理テーブル118には、画像ID、特定領域R1、R2が登録される。
特定領域R1は、重複部分に対応し、類似領域が重複する矩形領域の左上座標および右下座標が登録される。また、特定領域R2は、包含部分に対応し、類似領域を包含する矩形領域の左上座標および右下座標が登録される。
図24は、第1の特定領域検出処理の例を示すフローチャートである。図24に示す処理は、グループ選択部123によって選択された特定グループに対して行われる。
[ステップS61]特定領域検出部124は、グループ管理テーブル116に基づいて、特定グループを1つ選択する。
[ステップS62]特定領域検出部124は、選択した特定グループから、画像IDがnの画像を画像A、画像IDがn+1の画像を画像Bとして選択する。なお、nの初期値は、選択した特定グループ内において、撮影時刻が最初の画像Aの画像IDである。
[ステップS63]特定領域検出部124は、画像Aに対応する対応点管理テーブル114に基づいて、画像A、B間の特徴点と対応点とのペアの中から特定特徴点ペアを抽出する。特定領域検出部124は、画像Aに、特定特徴点ペアの各特徴点を包含する矩形領域を類似領域として設定する。また、特定領域検出部124は、画像Bに、特定特徴点ペアの各対応点を包含する矩形領域を類似領域として設定する。特定領域検出部124は、設定した類似領域の座標を類似領域管理テーブル117に登録する。
[ステップS64]特定グループ内において、撮影時刻が最後の画像の画像IDがmの場合、特定領域検出部124は、画像IDがn〜m−1まで画像Aとして選択してステップS62が処理済みかを判定する。処理済みでない画像がある場合、nに1が加算されてステップS62に戻り、次の画像IDの画像が画像Aとして選択される。一方、画像IDがn〜m−1の画像について処理済みの場合、ステップS65の処理が実行される。
[ステップS65]特定領域検出部124は、類似領域間で対応する位置の関係が保たれるように各類似領域を重ね合わせた際に、類似領域が共通する重複部分と、すべての類似領域を含む包含部分とを検出する。そして、特定領域検出部124は、検出した重複部分と包含部分を、重ね合わせに使用したそれぞれの画像の座標に変換して、変換した領域を特定領域として特定領域管理テーブル118に登録する。なお、この処理の詳細については、図19〜図23を用いて説明した通りである。
[ステップS66]特定領域検出部124は、すべての特定グループに対してステップS65が処理済みかを判定する。処理済みでない特定グループがある場合、ステップS61に戻り、他の特定グループが選択される。すべての特定グループについて処理済みの場合は、第1の特定領域検出処理を終了する。
上記のように、第1の特定領域検出処理では、隣り合う画像間で特定された特定特徴点ペアに含まれる特徴点と対応点の位置から類似領域を求め、類似領域を重ね合わせた際に、類似領域が共通する重複部分と、すべての類似領域を含む包含部分とを検出する。これにより、テンプレート画像のデータを準備することなく、画像集合の中から撮影者にとって重要な対象物が写っている領域を効率よく検出することが可能になる。また、画像間の類似判定の際に検出された特定特徴点ペアの情報を用いたことで、撮影者にとって重要な対象物が写っている領域を高効率かつ高精度に検出できる。
<第2の特定領域検出処理>
次に、第2の特定領域検出処理について説明する。第1の特定領域検出処理では、特定特徴点ペアを基に画像内に設定した類似領域を重ね合わせることで、特定グループに含まれる画像間で共通する特定領域を検出した。これに対し、第2の特定領域検出処理では、特定領域検出部124は、類似度の判定処理で求めたキー画像と対象画像との対応位置(対象画像におけるキー画像の中心位置)および対象画像のサイズ(倍率)に基づいて、特定グループ内の各画像を重ね合わせることで、特定領域を検出する。重ね合わせの際には、特定領域検出部124は、上記の対応位置およびサイズに基づいて、画像間で対応する位置の関係を保ちながら各画像を重ね合わせる。そして、重ね合わされた各画像の重複部分を特定領域として検出する。
図25は、第2の特定領域検出処理を説明するための図である。図25において、画像m1、m2、m3は、この順で撮影時刻が隣接しているとする。図25の例では、類似判定処理により、画像m1を縮小した画像m1aの中心が、画像m2の画素p1に位置すると推定され、画像m2を拡大した画像m2aの中心が、画像m3の画素p2に位置すると推定されている。なお、図25では説明を簡単にするために上記の記載としたが、実際の類似判定処理では、隣接画像のうち撮影時刻が後の画像のサイズを拡大または縮小した画像における、撮影時刻が前の画像の中心位置が検出されている。
このとき、特定領域検出部124は、まず、画像m2における画像m3の領域d1を求める。領域d1は、画像m3の範囲を画像m2の座標系に合わせるように画像m3を変換した領域となる。次に、特定領域検出部124は、画像m1における画像m2の領域d2を求める。領域d2は、画像m2の範囲を画像m1の座標系に合わせるように画像m2を変換した領域となる。さらに、特定領域検出部124は、画像m1における領域d1の領域d3を求める。領域d3は、画像m3の範囲を画像m1の座標系に合わせるように画像m3を変換した領域となる。
特定領域検出部124は、画像m1および領域d2、d3の重複部分(図25の斜線部分)を、画像m1の特定領域とする。また、特定領域検出部124は、画像m1の重複部分を画像m2、m3のそれぞれの座標に逆算し、逆算によって変換した領域を画像m2、m3にそれぞれ対応する特定領域とする。なお、第2の特定領域検出処理では、特定された特定領域の位置情報は、特定領域管理テーブル118に特定領域R1として登録される。特定領域R2の位置情報は算出されない。
このように、第2の特定領域検出処理では、特定グループに含まれる各画像を、画像間で対応する位置の関係を保ちながら重ね合わせたときの重複部分を、特定領域として検出する。これにより、テンプレート画像のデータを準備することなく、画像集合の中から撮影者にとって重要な対象物を効率よく検出することが可能になる。
なお、第1の特定領域検出処理と、第2の特定領域検出処理とを比較した場合、第2の特定領域検出処理では、元の画像の隅で囲まれた矩形が特定領域として抽出される。このため、撮影した画像の構図に依存しやすく、空や地面などの背景と考えらえる部分も対象物として抽出される場合がある。これに対し、第1の特定領域検出処理では、特定特徴点ペアの情報を用いることで、元の画像から対象物が写っている可能性の高い領域だけが抽出され、抽出された領域を重ね合わせて特定領域が特定されるので、より精度よく対象物を検出することができる。
<ベストショット抽出処理>
次に、特定領域の検出結果を用いた処理例について説明する。まず、ベストショット抽出処理について説明する。
ベストショットとは、特定グループ内の画像のうち、重要対象物が最も高品質で写っている画像である。このような画像は、例えば、特定グループを代表する画像として出力することができる。また、品質指標としては、例えば、フォーカス度合いが考えられる。フォーカス度合いを評価するための指標としては、エッジの強さやコントラストの大きさを用いることができる。
このように、ベストショットは、重要対象物の画質を基に抽出されることから、特定領域として検出された重複部分と包含部分のうち、重要対象物が相対的に大きく写っている重複部分の特定結果に基づいて抽出されることが望ましい。
図26は、ベストショット管理テーブルの構成例を示す図である。ベストショット管理テーブル119は、特定グループごとに用意される。ベストショット管理テーブル119には、画像ID、品質指標およびベストショット選択結果が登録される。
画像IDは、特定グループ内の画像の識別番号である。品質指標は、重複部分の画像に対して例えば、エッジの強さやコントラストなどの画像品質の指標値が登録される。また、ベストショット選択結果は、同じ特定グループ内の画像の重複部分の中で、品質指標が最も高いベストショット画像に例えば、“○”が登録される。
図27は、ベストショット抽出処理の例を示すフローチャートである。図27に示す処理は、グループ選択部123によって選択された特定グループに対して行われる。
[ステップS71]特定領域検出部124は、グループ管理テーブル116に基づいて、特定グループを1つ選択する。
[ステップS72]特定領域検出部124が、選択した特定グループ内の画像を1つ選択する。
[ステップS73]特定領域検出部124は、選択した特定グループに対応する特定領域管理テーブル118を参照して、選択した画像における重複部分を認識し、重複部分の画像範囲における品質指標を算出する。例えば、特定領域検出部124は、エッジの強さやコントラストなどの画像品質の指標値を計算する。特定領域検出部124は、算出した品質指標値をベストショット管理テーブル119に登録する。
[ステップS74]特定領域検出部124は、特定グループ内の全画像についてステップS73が処理済みかを判定する。処理済みでない画像がある場合、ステップS72に戻り、他の画像が選択される。全画像について処理済みの場合、ステップS75の処理が実行される。
[ステップS75]特定領域検出部124は、特定グループ内の画像のうち、品質指標値が最も高い画像をベストショット画像として選択し、選択結果をベストショット管理テーブル119に登録する。
[ステップS76]特定領域検出部124は、すべての特定グループに対してステップS74が処理済みかを判定する。処理済みでない特定グループがある場合、ステップS71に戻り、他の特定グループが選択される。すべての特定グループについて処理済みの場合、ベストショット抽出処理は終了する。
<サムネイル生成処理>
次に、特定領域の検出結果を用いたサムネイル生成処理について説明する。
サムネイル生成処理では、特定グループ内の各画像に対応するサムネイル画像が生成される。サムネイル画像は、元の画像にどのような対象物が写っているかを確認できることが望ましいが、対象物だけが拡大されて写っている画像よりは、対象物の周囲の状態も確認できる方が望ましい。このため、サムネイル画像は、特定領域として検出された重複部分と包含部分のうち、包含部分を元の画像から切り出して生成されることが望ましい。
図28は、サムネイル生成処理の例を示すフローチャートである。図28に示す処理は、グループ選択部123によって選択された特定グループに対して行われる。
[ステップS81]特定領域検出部124は、グループ管理テーブル116に基づいて、特定グループを1つ選択する。
[ステップS82]特定領域検出部124は、選択した特定グループ内の画像を1つ選択する。
[ステップS83]特定領域検出部124は、選択した特定グループに対応する特定領域管理テーブル118を参照して、選択した画像における包含部分を認識し、画像から包含部分を切り出して所定サイズのサムネイル画像を生成する。
[ステップS84]特定領域検出部124は、特定グループ内の全画像についてステップS83が処理済みかを判定する。処理済みでない画像がある場合、ステップS82に戻り、他の画像が選択される。全画像について処理済みの場合、ステップS85の処理が実行される。
[ステップS85]特定領域検出部124は、すべての特定グループに対してステップS81が処理済みかを判定する。処理済みでない特定グループがある場合、ステップS81に戻り、他の特定グループが選択される。すべての特定グループについて処理済みの場合、サムネイル画像生成処理は終了する。
なお、画像処理装置100は、特定領域に基づく画像を表示するアプリケーションに応じて、重複部分または包含部分の検出切り替えを行って、検出した特定領域を用いて、ベストショット画像の抽出またはサムネイル画像の生成を行うこともできる。これにより、アプリケーションに適した画像領域を検出することができ、利便性の向上を図ることが可能になる。
<画像表示>
次に、特定領域の検出結果を基に生成または選択された画像の表示例について説明する。
図29は、画像表示の一例を示す図である。図29に示す画面は、画像処理装置100の結果出力部125の制御にしたがって表示装置104aで表示される画面の一例であり、一覧表示部31と、詳細表示部32とに分かれている。一覧表示部31には、各特定グループの代表画像の一覧が表示される。また、図29の例では、特定グループの代表画像の近傍に、特定グループに含まれる画像の枚数を表示している。
代表画像には、例えば、特定グループ内の画像のうち、ベストショット画像を所定サイズに縮小した画像が使用される。あるいは、代表画像は、ベストショット画像を基に図28のステップS83の手順で包含部分から切り出して生成されたサムネイル画像であってもよい。このように、ベストショット画像の抽出結果を基に代表画像が表示されることで、ユーザは、特定グループ内の画像に写された重要対象物を正確に視認できる。このため、記憶された多数の画像の中から画像を探しやすくなる。
詳細表示部32には、一覧表示部31に表示されている特定グループに含まれる画像が表示される。例えば、ユーザが一覧表示部31に表示されている代表画像31aをマウスでクリックすると、代表画像31aが含まれる特定グループ内の画像が詳細表示部32に表示される。
図30は、画像表示の一例を示す図である。図30では、サムネイル画像の表示例を示している。例えば、ユーザが一覧表示部31に表示されている代表画像31a上にマウスカーソルを置くと、サムネイル表示部33が表示される。サムネイル表示部33には、代表画像31aが含まれる特定グループ内の画像に対応するサムネイル画像が一覧表示される。図28で説明したように、サムネイル画像は、画像から包含部分が切り出されて生成される。
以上の図29、図30の例の他にも、特定領域の検出結果を利用した画像の表示方法は考えられる。例えば、特定グループ内の画像からベストショット画像を画面上に大きく表示させることで、ユーザは、特定グループ内の画像に写された重要対象物を詳細に視認できるようになる。また、特定グループ内の各画像から包含部分が切り出されて生成されたサムネイル画像を用いて、重要対象物を含む画像の内容が理解しやすいような品質の高いスライドショーを自動生成できる。
このように、記憶された多数の画像の中から重複部分や包含部分といった特定領域を自動的に検出できることによって、これらの画像の管理や検索、再利用の場面において様々なメリットが得られる。
なお、上記の各実施の形態に示した装置(画像処理装置10、100)の処理機能は、コンピュータによって実現することができる。その場合、各装置が有すべき機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc-Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
上記については単に本発明の原理を示すものである。さらに、多数の変形、変更が当業者にとって可能であり、本発明は上記に示し、説明した正確な構成および応用例に限定されるものではなく、対応するすべての変形例および均等物は、添付の請求項およびその均等物による本発明の範囲とみなされる。
10 画像処理装置
11 選択部
12 検出部
M1、M2、M3、M4 画像
G1 特定グループ
M2a、M3a 特定領域(画像領域)
S1 類似度算出処理
S2 グループ選択処理
S3 特定領域検出処理

Claims (14)

  1. それぞれ撮影時刻が付加された複数の画像の中から、撮影時刻が連続し、かつ類似する画像を同一のグループに分類し、分類された前記グループの中から、画像枚数または撮影期間の長さに関する所定条件を満たす特定グループを選択する選択部と、
    前記特定グループに含まれる画像の間で共通性の高い領域を特定領域として検出する検出部と、
    を有する画像処理装置。
  2. 前記選択部は、画像枚数が所定の閾値以上である前記グループを前記特定グループとして選択する、
    請求項1記載の画像処理装置。
  3. 前記選択部は、画像枚数が第1の閾値以上であり、かつ各画像の撮影時刻のうち最も早い時刻と最も遅い時刻との時間差が第2の閾値以上である前記グループを、前記特定グループとして選択する、
    請求項1記載の画像処理装置。
  4. 前記検出部は、前記特定グループに含まれる各画像から類似性が高い類似領域を特定し、前記類似領域間で対応する位置の関係を保ちながら前記各類似領域を重ね合わせたときに、前記各類似領域が重複する重複領域または前記各類似領域を包含する包含領域の少なくとも一方を、前記特定領域として検出する、
    請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記検出部は、前記複数の画像のうち前記特定グループに含まれる特定画像のそれぞれにおける前記重複領域の画質を評価し、画質の評価値が最大の前記特定画像を代表画像として抽出する、
    請求項4記載の画像処理装置。
  6. 前記検出部は、前記特定グループに含まれる画像から前記包含領域を切り出してサムネイル画像を生成する、
    請求項4または5記載の画像処理装置。
  7. 前記選択部は、前記グループの分類のために前記複数の画像に含まれる画像ペアの間の類似度を判定する際に、前記画像ペアの間で類似する特徴点同士の位置関係に関する統計情報に基づいて前記画像ペアの間の類似度を判定し、
    前記検出部は、前記統計情報に基づいて同一対象物が写っていると推定される領域を前記類似領域として特定する、
    請求項4乃至6のいずれか1項に記載の画像処理装置。
  8. 前記検出部は、前記複数の画像のうち前記特定グループに含まれる特定画像の間で対応する位置の関係を保ちながら前記特定画像を重ね合わせたときの重複領域を、前記特定領域として検出する、
    請求項1乃至3のいずれか1項に記載の画像処理装置。
  9. 前記選択部は、前記複数の画像のうち、撮影時刻が隣接する画像間の類似度が所定の類似度閾値以上であり、かつ撮影時刻が連続する画像群を、同一の前記グループに分類する、
    請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. コンピュータが、
    それぞれ撮影時刻が付加された複数の画像の中から、撮影時刻が連続し、かつ類似する画像を同一のグループに分類し、
    分類された前記グループの中から、画像枚数または撮影期間の長さに関する所定条件を満たす特定グループを選択し、
    前記特定グループに含まれる画像の間で共通性の高い部分を特定領域として検出する、
    画像領域検出方法。
  11. コンピュータに、
    それぞれ撮影時刻が付加された複数の画像の中から、撮影時刻が連続し、かつ類似する画像を同一のグループに分類し、
    分類された前記グループの中から、画像枚数または撮影期間の長さに関する所定条件を満たす特定グループを選択し、
    前記特定グループに含まれる画像の間で共通性の高い部分を特定領域として検出する、
    処理を実行させる画像領域検出プログラム。
  12. 記憶部に記憶される、撮影された時間情報が付加された1又は複数の画像を用いた特定の処理要求を受け付けた場合、前記記憶部に記憶される前記1又は複数の画像の類似度を判定する判定部と、
    類似すると判定した画像が複数ある場合には、類似する複数の画像それぞれに付加された時間情報を参照して、類似する前記複数の画像が撮影された期間と前記期間に撮影された画像数を特定する特定部と、
    特定した前記期間と前記画像数に基づいて、前記特定の処理要求に対応する類似する前記複数の画像の中から特定の画像、又は前記複数の画像を用いて生成した画像を出力する出力部と、
    を有する画像処理装置。
  13. コンピュータが、
    記憶部に記憶される、撮影された時間情報が付加された1又は複数の画像を用いた特定の処理要求を受け付けた場合、前記記憶部に記憶される前記1又は複数の画像の類似度を判定し、
    類似すると判定した画像が複数ある場合には、類似する複数の画像それぞれに付加された時間情報を参照して、類似する前記複数の画像が撮影された期間と前記期間に撮影された画像数を特定し、
    特定した前記期間と前記画像数に基づいて、前記特定の処理要求に対応する類似する前記複数の画像の中から特定の画像、又は前記複数の画像を用いて生成した画像を出力する、
    画像領域検出方法。
  14. コンピュータに、
    記憶部に記憶される、撮影された時間情報が付加された1又は複数の画像を用いた特定の処理要求を受け付けた場合、前記記憶部に記憶される前記1又は複数の画像の類似度を判定し、
    類似すると判定した画像が複数ある場合には、類似する複数の画像それぞれに付加された時間情報を参照して、類似する前記複数の画像が撮影された期間と前記期間に撮影された画像数を特定し、
    特定した前記期間と前記画像数に基づいて、前記特定の処理要求に対応する類似する前記複数の画像の中から特定の画像、又は前記複数の画像を用いて生成した画像を出力する、
    処理を実行させる画像領域検出プログラム。
JP2016111766A 2016-06-03 2016-06-03 画像処理装置、画像領域検出方法および画像領域検出プログラム Active JP6770227B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016111766A JP6770227B2 (ja) 2016-06-03 2016-06-03 画像処理装置、画像領域検出方法および画像領域検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016111766A JP6770227B2 (ja) 2016-06-03 2016-06-03 画像処理装置、画像領域検出方法および画像領域検出プログラム

Publications (2)

Publication Number Publication Date
JP2017219912A true JP2017219912A (ja) 2017-12-14
JP6770227B2 JP6770227B2 (ja) 2020-10-14

Family

ID=60657742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016111766A Active JP6770227B2 (ja) 2016-06-03 2016-06-03 画像処理装置、画像領域検出方法および画像領域検出プログラム

Country Status (1)

Country Link
JP (1) JP6770227B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079461A (ja) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd 電子アルバム表示システム、画像分類装置、電子アルバム表示方法、画像分類方法、及びプログラム
JP2010173323A (ja) * 2010-02-10 2010-08-12 Seiko Epson Corp 印刷装置
JP2011508310A (ja) * 2007-12-20 2011-03-10 イーストマン コダック カンパニー 場所別画像分類
JP2012049815A (ja) * 2010-08-26 2012-03-08 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2014197386A (ja) * 2013-03-08 2014-10-16 キヤノン株式会社 画像処理装置および画像処理方法
JP2015225353A (ja) * 2014-05-26 2015-12-14 富士通株式会社 画像処理装置、画像判断方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079461A (ja) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd 電子アルバム表示システム、画像分類装置、電子アルバム表示方法、画像分類方法、及びプログラム
JP2011508310A (ja) * 2007-12-20 2011-03-10 イーストマン コダック カンパニー 場所別画像分類
JP2010173323A (ja) * 2010-02-10 2010-08-12 Seiko Epson Corp 印刷装置
JP2012049815A (ja) * 2010-08-26 2012-03-08 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2014197386A (ja) * 2013-03-08 2014-10-16 キヤノン株式会社 画像処理装置および画像処理方法
JP2015225353A (ja) * 2014-05-26 2015-12-14 富士通株式会社 画像処理装置、画像判断方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JUN LI ET AL.: "Automatic Summarization for Personal Digital Photos", FOURTH INTERNATIONAL CONFERENCE ON INFORMATION, COMMUNICATIONS AND SIGNAL PROCESSING, 2003 AND THE F, JPN6020003264, 18 December 2003 (2003-12-18), pages 1536 - 1540, XP010701781, ISSN: 0004204204, DOI: 10.1109/ICICS.2003.1292724 *
野中 俊一郎 外4名: "大量のDSC撮影画像からの自動選択を可能とする画像評価技術"iAgent"の開発", 富士フイルム研究報告 第52号, vol. 第52号, JPN6020003262, 22 March 2007 (2007-03-22), JP, pages 17 - 21, ISSN: 0004204203 *

Also Published As

Publication number Publication date
JP6770227B2 (ja) 2020-10-14

Similar Documents

Publication Publication Date Title
US10134165B2 (en) Image distractor detection and processing
US9342756B2 (en) Methods and apparatus to detect differences between images
TWI462035B (zh) 物件偵測後設資料
KR101729195B1 (ko) 질의동작기반 안무 검색 시스템 및 방법
WO2018028583A1 (zh) 字幕提取方法及装置、存储介质
JP6465215B2 (ja) 画像処理プログラムおよび画像処理装置
WO2023279847A1 (zh) 单元格位置的检测方法、装置和电子设备
CN112199545A (zh) 基于图片文字定位的关键词显示方法、装置及存储介质
JP6565661B2 (ja) 画像処理システム、画像類似判定方法および画像類似判定プログラム
JP5027201B2 (ja) テロップ文字領域検出方法,テロップ文字領域検出装置およびテロップ文字領域検出プログラム
US20190122391A1 (en) Apparatus for processing image and method thereof
JP6770227B2 (ja) 画像処理装置、画像領域検出方法および画像領域検出プログラム
JP2019016128A (ja) 画像類否判断プログラム、画像類否判断装置および画像類否判断方法
JP2011141664A (ja) 文書比較装置、文書比較方法、及びプログラム
JP6244887B2 (ja) 情報処理装置、画像探索方法、及びプログラム
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
Jang et al. Robust detection of mosaic regions in visual image data
JP6485084B2 (ja) 画像探索装置、画像探索方法および画像探索プログラム
JP6485072B2 (ja) 画像探索装置、画像探索方法および画像探索プログラム
CN112069357A (zh) 视频资源处理方法、装置、电子设备及存储介质
JP2017072940A (ja) 画像処理システム、画像処理方法および画像処理プログラム
TWI571753B (zh) 用於產生一影像之一互動索引碼圖之電子計算裝置、其方法及其電腦程式產品
CN115205555B (zh) 确定相似图像的方法、训练方法、信息确定方法及设备
CN113393418A (zh) 一种用户界面组件检索方法及装置、设备、存储介质
CN112017092A (zh) 水印检测模型的生成和水印检测方法、装置及设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200331

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200331

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200907

R150 Certificate of patent or registration of utility model

Ref document number: 6770227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150