JP6463095B2 - 画像検索装置及び方法 - Google Patents

画像検索装置及び方法 Download PDF

Info

Publication number
JP6463095B2
JP6463095B2 JP2014238234A JP2014238234A JP6463095B2 JP 6463095 B2 JP6463095 B2 JP 6463095B2 JP 2014238234 A JP2014238234 A JP 2014238234A JP 2014238234 A JP2014238234 A JP 2014238234A JP 6463095 B2 JP6463095 B2 JP 6463095B2
Authority
JP
Japan
Prior art keywords
image
search
specific
category
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014238234A
Other languages
English (en)
Other versions
JP2016099900A (ja
Inventor
敦夫 野本
敦夫 野本
佐藤 博
博 佐藤
雄司 金田
雄司 金田
崇士 鈴木
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014238234A priority Critical patent/JP6463095B2/ja
Priority to US14/947,080 priority patent/US10311097B2/en
Publication of JP2016099900A publication Critical patent/JP2016099900A/ja
Application granted granted Critical
Publication of JP6463095B2 publication Critical patent/JP6463095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • G06F16/287Visualization; Browsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Description

本発明は、大量の画像の中から所望の画像を検索・提示する画像検索装置および画像検索方法に関する。
近年のデジタルカメラの普及とストレージの大容量化に伴い、大量の画像を撮影し、保存しておくことが可能となった。その一方で、大量の画像の中からユーザが所望の画像を発見するのは大きな手間となるため、簡易に所望の画像を発見できる検索技術の開発が求められていた。例えば特許文献1では、画像を撮影時刻毎に分類した上でユーザに提示する技術が開示されている。撮影時刻は、どのような撮影を行ったかユーザが思い出す助けとなるため、所望の画像を比較的容易に発見することができる。
また、特許文献2では、撮影時刻、撮影場所等から設定したカテゴリ毎に重要度を算出し、重要度が高いカテゴリの画像を提示する技術が開示されている。撮影時刻だけでなく、場所等を考慮したカテゴリから重要度を設定するこの技術を用いることで、ユーザが所望の画像をより容易に発見できる。
また一方で、特許文献3では、画像認識技術を用いて特定のオブジェクトが写る画像を自動で提示する技術が開示されている。ユーザが特定のオブジェクトが写る画像を探したい場合に、この技術を用いることで、ユーザは選択に必要となる手間を大幅に軽減することができ、利便性が高い。
特開2003−296165号公報 特開2007−25876号公報 特開2009―87005号公報
P. Viola and M. Jones, "Robust real−time face detection", In page II: 747, 2001. Y. Yang and D. Ramanan. Articulated pose estimation using Flexible mixtures of parts. In CVPR 2011, 2011.
しかしながら、上記の方法では、ユーザが特定のオブジェクトが写る画像を、カテゴリ毎に検索したい場合に、画像認識の誤りや認識設定によって、検索結果に見落としが発生する場合がある。特に、ユーザにとって重要度の高いカテゴリであっても、見落としによって検索結果の画像数が1枚もないか、少なくなってしまう場合があるのは利便性が低い。また、逆に、見落としが少なくなるような画像認識技術を使用するか、その認識設定(典型的には認識の閾値)を調整すると、今度は検索結果に提示する画像数が多くなりすぎてしまい、ユーザが選択に必要とする手間が増加する。
上述した課題を解決するために、本発明に係わる画像検索装置は、画像を取得する画像取得手段と、
前記画像取得手段が取得した画像が属するカテゴリを取得するカテゴリ取得手段と、
前記画像取得手段が取得した画像から特定のオブジェクトが写る特定画像を探索する画像探索手段と、
前記カテゴリ取得手段が取得したカテゴリ毎に前記特定画像の数を算出する算出手段と、
前記算出手段が算出したカテゴリ毎の画像数に応じて選択されたカテゴリに属する画像であって前記画像探索手段が前記特定画像ではないと判断した画像の中から前記特定画像を詳細に探索する詳細探索手段と、
を備えることを特徴とする。
また、本発明に係わる画像検索方法は、画像取得手段が、画像を取得する画像取得工程と、
カテゴリ取得手段が、前記画像取得手段が取得した画像が属するカテゴリを取得するカテゴリ取得工程と、
画像探索手段が、前記画像取得手段が取得した画像から特定のオブジェクトが写る特定画像を探索する画像探索工程と、
算出手段が、前記カテゴリ取得手段が取得したカテゴリ毎に前記特定画像の数を算出する算出工程と、
詳細探索手段が、前記算出手段が算出したカテゴリ毎の画像数に応じて選択されたカテゴリに属する画像であって、前記画像探索手段が前記特定画像ではないと判断した画像の中から前記特定画像を詳細に探索する詳細探索工程と、
を含むことを特徴とする。
本発明により、特定のオブジェクトが写る画像を、カテゴリ毎に検索する場合に、あるカテゴリの検索結果が見落としにより1枚もないか、少なくなることを軽減できる。また、見落としが少ない画像認識技術またはその設定を使うことによる検索結果の画像数増大を軽減することができる。
本発明の第1の実施例に係る画像検索装置のハードウェア構成の一例を示す図である。 本発明の第1の実施例に係る画像検索装置の制御プログラムの機能構成を示したブロック図である。 本発明の第1の実施例に係る画像検索装置の画像検索処理フローチャートである。 カテゴリの自動分類方法を説明する模式図である。 詳細探索する画像の選択処理を説明する模式図である。 本発明の第1の実施例に係る画像検索装置の画像探索処理フローチャートである。 本発明の第1の実施例に係る画像検索装置の検出する顔の位置とサイズを示した模式図である。 本発明の第1の実施例に係る画像検索装置の詳細探索処理フローチャートである。 本発明の第2の実施例に係る画像検索装置のハードウェア構成の一例を示す図である。 本発明の第2の実施例に係る画像検索装置の制御プログラムの機能構成を示したブロック図である。 本発明の第2の実施例に係る画像検索装置の詳細探索処理フローチャートである。 本発明の第2の実施例に係る画像検索装置の詳細探索処理を説明する模式図である。
[第1の実施例]
以下、図面を参照して本発明の第1の実施例を詳細に説明する。本実施例では、画像検索装置のユーザが、特定人物が主要被写体として写った写真を探す、という目的で使用する場合の例を説明する。すなわち、特定のオブジェクトが写る画像を検索する画像検索の一例として、特定人物の顔が画像の中央付近に大きく写る画像を検索する場合の画像検索処理について述べる。
<ハードウェア構成>
図1に、本実施例における画像検索装置のハードウェア構成の一例を示す。図1に示すように、本実施例における画像検索装置100は、CPU1、ROM2、RAM3、二次記憶装置4、通信装置5、映像出力装置6、および接続バス7で構成されている。
CPU1は、CPU(Central Processing Unit)であり、ROM2やRAM3に格納された制御プログラムを実行することにより、本装置全体の制御を行う。
ROM2は、不揮発性メモリであり、制御プログラムや各種パラメタデータを記憶する。制御プログラムは、CPU1で実行され、後述する各処理を実行するための手段として、当該装置を機能させる。
RAM3は、揮発性メモリであり、画像データや制御プログラムおよびその実行結果を一時的に記憶する。
二次記憶装置4は、ハードディスクやフラッシュメモリーなどの書き換え可能な二次記憶装置であり、画像や制御プログラム、各種設定内容、検索の処理結果などを記憶する。これらの情報はRAM3に出力され、CPU1がプログラムの実行に利用する。
通信装置5は、無線通信ユニットであり、他の機器との通信に使用する。通信装置5は、有線通信ユニットであってもよい。
映像出力装置6は、CRTやTFT液晶などのモニタである。RAM3または二次記憶装置4から取得した画像データや制御プログラムの実行結果等を表示する。
接続バス7は、CPU1、ROM2、RAM3、二次記憶装置4、通信装置5、および映像出力装置6を接続して相互にデータの入出力を行う。
カメラ101〜103は、撮像装置と撮像した画像を保存するストレージ、および画像を外部へ出力する通信装置で構成される一般的なカメラである。本実施例では、図1に示すように101〜103の3台のカメラが画像検索装置100にカメラの通信装置(図示せず)および画像検索装置100の通信装置5を介して接続されている。接続するカメラの台数はこれに限るものではない。カメラ101〜103は自身のストレージに格納した画像を画像検索装置100に送信し、画像検索装置100は画像を二次記憶装置4に格納する。
なお、後述する処理を、画像検索装置100のCPU1を用いてソフトウェアで実現することとするが、その処理の一部または全部をハードウェアで実現するようにしても構わない。ハードウェアとして専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
また、後述する処理を記述したソフトウェア(プログラム)をネットワークまたは各種記憶媒体を介して取得し、パーソナルコンピュータ等の処理装置(CPU、プロセッサ)にて実行してもよい。
また、本実施例では撮像データをカメラ101〜103から通信装置5を介して取得するが、画像検索装置100が撮像装置を持ち、その撮像装置を用いて撮影することによって画像を取得するようにしてもよい。
<機能構成>
図2は、本実施例における画像検索装置の制御プログラムの機能構成の一例を示したブロック図である。図2に示すように、本実施例の制御プログラムの機能構成は、画像取得部11、画像探索部12、カテゴリ情報取得部13、特定画像数算出部14、詳細探索画像選択部15、詳細探索部16、および表示部17を含む。ここに示す機能構成はハードウェアとソフトウェアの組み合わせによって実現できるものであって、一つの機能ブロックが一つのハードウェアに対応するものではない。
画像取得部11は、通信装置5を介して、カメラ101、カメラ102、カメラ103から画像を取得し、二次記憶装置4に画像を記憶し、要求に応じて画像探索部12、カテゴリ情報取得部13へ画像を出力する。ここで取得する画像には、人物の顔が写っている顔画像や、人物の全身または一部が写っている人体画像、または人物が写っていない画像等が含まれる。
画像探索部12は、二次記憶装置4に記憶されている画像を探索し、特定人物が写る特定画像かどうか識別し、探索結果を特定画像数算出部14および表示部17へ出力する。探索結果とは、各画像が特定画像か否か、すなわち、画像に特定人物が写っているか、否かを示す情報である。特定画像とは、特定のオブジェクト(本実施例では特定の人物)が写る画像を意味する。
カテゴリ情報取得部13は、画像取得部11から取得した画像からカテゴリ情報を取得し、特定画像数算出部14へ出力する。カテゴリ情報とは、各画像が属するグループを指す情報で、典型的には撮影場所、撮影日時などがある。
特定画像数算出部14は、カテゴリ情報取得部13から取得したカテゴリ情報および画像探索部12から取得した探索結果から、カテゴリ毎の特定画像の数を算出する。算出したカテゴリ毎の特定画像の数と探索結果を詳細探索画像選択部15に出力する。
詳細探索画像選択部15は、特定画像数算出部14から取得した探索結果とカテゴリ毎の特定画像の数から詳細探索するカテゴリを選択し、そのカテゴリに属する画像を二次記憶装置4から取得し、詳細探索部16に出力する。
詳細探索部16は、詳細探索画像選択部15から詳細探索対象の画像を取得し、詳細探索する。その後、詳細探索部16は、詳細探索結果を表示部17へ出力する。詳細探索結果とは、各画像が特定画像か否か、すなわち、画像に特定人物が写っているか、否かを示す情報である。
表示部17は、ユーザに検索結果を提示する提示部として機能し、詳細探索部16から取得した詳細探索結果と画像探索部12から取得した探索結果を映像出力装置6に出力し、結果を表示する。
<全体の処理>
図3は、本実施例の画像検索装置100が、特定人物が写る画像の検索および表示を行う処理フローチャートの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。なお、このフローの開始時に、画像検索装置100、カメラ101〜103の電源はオンになっており、カメラ101〜103から画像検索装置へ画像を送信する準備が完了した状態にあるものとする。
始めに、画像取得部11は、カメラ101〜103から画像を、通信装置5を介して、受信する(ステップS011)。このとき受信する画像には、画像の撮影時のカメラ設定や撮影場所等の情報が記述されたメタデータが付随しているものとする。例えば、Exif(Exchangeable image fileformat)の画像を使用することができる。
続いて、画像探索部12は、画像取得部11から画像を取得し、特定人物の写る画像の画像探索処理を行う(ステップS012)。本実施例では、画像に特定人物が写っているか否かの識別処理を行うことで画像を探索する。このとき、人物の顔の位置とサイズでフィルタリング処理を施し、画像の中央付近で大きく写る人物の顔だけを探索対象とする。これにより、ユーザの特定人物が主要被写体として写った写真を探すという目的により合致した探索結果を得ることができる。画像探索処理の詳細は後述する。
続いて、カテゴリ情報取得部13は、画像取得部11から画像を取得し、取得した画像からカテゴリ情報を取得する(ステップS013)。本実施例ではカテゴリは撮影時刻と撮影場所(GPSデータ)から自動で分類される。撮影場所と撮影時刻は画像のメタデータから読み込む。
図4は、カテゴリの自動分類の詳細について示した模式図である。図4には撮影時刻110、撮影場所120、およびカテゴリ自動分類結果130が示されている。撮影時刻110は画像がどの時刻に撮影されたかを黒丸と画像番号で示しており、この図では時刻が進むに従って画像番号1〜9の合計9枚が撮影されたことを意味している。
撮影場所120は、撮影時刻110で示した9枚の画像がそれぞれどこで撮影されたかを示している。撮影時刻110と撮影場所120で画像番号が同じ黒丸は同一の画像を意味している。なお、この図に表示している地図データは事前に二次記憶装置4に記憶しておく。この撮影時刻110と撮影場所120からカテゴリを自動分類した結果がカテゴリ自動分類結果130である。ここでは、事前に設定した撮影時刻の範囲、撮影場所の範囲をもとにカテゴリを自動で設定している。
図4に示すように画像番号1〜3の画像は撮影時刻、撮影場所ともに近い範囲にあるため同じカテゴリ1に設定されている。画像番号9の画像は、撮影場所は画像番号1〜3の画像に近いものの、撮影時刻が画像番号1〜3の画像から離れているため、画像番号1〜3の画像のカテゴリ1とは別のカテゴリ4として設定されている。
残りの画像についても同様にカテゴリを自動分類している。カテゴリの自動分類のルールについては撮影時刻だけを基準として設定してもよいし、撮影場所だけを基準として設定してもよい。また他のメタデータの単体または複数の組み合わせを基準として設定してもよい。
本実施例では、事前に設定したルールと画像のメタデータに従ってカテゴリを自動分類する場合について述べたが、カテゴリ情報の取得方法についてはこれ以外の方法を用いてもよい。例えば、画像を認識して認識結果に基づいてカテゴリを設定してもよい。画像内に写る人物の年齢を推定して、同じ年代でカテゴリを設定するなどしてもよい。そうすれば、例えば、ある人物の幼少期から大人までの画像群に対して、各年代毎のカテゴリを設定できるなど、利便性の高い画像検索装置が実現できる。この他に、画像のサイズや撮影したカメラの種類、設定等を基準としてカテゴリを設定してもよい。
続いて、特定画像数算出部14が、カテゴリ情報と画像探索結果から、カテゴリ毎に特定人物が写っている画像の数(カテゴリ毎の特定人物画像数)を算出する(ステップS014)。
続いて、詳細探索画像選択部15は、カテゴリ毎の特定人物画像数から、詳細探索する画像を選択する(ステップS015)。
図5は、詳細探索する画像を決定する際の処理を示した模式図である。図5に示すように、カテゴリ毎の特定人物画像が黒丸、画像探索部12によって特定人物が写っていないと判定された非特定画像が破線の白丸で示されている。この例の場合、カテゴリ1に属する3枚の画像のうち、2枚が特定画像と判断されたことを意味している。カテゴリ3を見ると、3枚の画像のうち、特定画像と判断された画像が1枚もない、という結果となっている。ここで、このカテゴリ3に属する特定画像の数が所定の数(本実施例では1枚)よりも小さいため、カテゴリ3の画像を詳細探索対象の画像として選択する。
その後、選択した詳細探索対象の画像のカテゴリ毎のリストを二次記憶装置4に記憶しておき、後の詳細探索部16の処理で使用する。本実施例では、特定画像の数を所定の数と比較することで詳細探索対象の画像を選択したが、この他の方法を用いてもよい。
例えば、各カテゴリで特定画像が所定の割合を超えた場合に詳細探索対象の画像として選択するようにしてもよい。また、詳細探索対象の画像をリストにして詳細探索部16で使うようにしたが、詳細探索対象の画像を詳細探索部16に伝達する方法はこれに限らない。詳細探索対象の画像そのものを詳細探索部16に出力するようにしてもよい。
本実施例では、撮影時刻・撮影場所のようなユーザにとって意味のある情報を基準にカテゴリを設定している。この場合、ユーザにとって意味のあるカテゴリ(この例ではカテゴリ3)において、見落としにより検索結果に画像が1枚もないという状態が起こりうる。この見落としは、画像探索部12が探索の際に、顔の位置とサイズでフィルタリングしていることにより発生している可能性がある。このフィルタリングは画像に対して顔が大きく、中央付近に写る画像を探す、という目的では有効な方法と言える。
しかし、あるカテゴリの検索結果が1枚もないという状態になった場合、顔のサイズが多少小さくても、顔の位置が画像の端に多少寄っていても、ユーザとしては、1枚でも検索結果に提示してくれたほうが利便性は高いと考えられる。そこで、本実施例ではこのカテゴリ3を詳細探索対象の画像として選択し、後述する詳細探索処理により見落としの軽減を図っている。
続いて、詳細探索部16が、詳細探索画像選択部15によって選択された詳細探索対象の画像に対して詳細探索処理を行う(ステップS016)。詳細探索対象の画像は二次記憶装置4にリストの形式で記憶されているので、それを読み取り、同じく二次記憶装置4に記憶されている対象の画像を取得する。この詳細探索処理によって、ステップS012の画像探索処理で見落とした特定画像を、検索結果に追加できる可能性がある。詳細探索処理の詳細については後述する。
続いて、表示部17が詳細探索部16の詳細探索結果と画像探索部12の探索結果を取得し、最終的な検索結果を表示する。表示する際に、詳細探索結果と探索結果をマージして表示する。はじめに探索結果を表示し、ユーザからの要求に応じて詳細探索結果を追加で表示するようにしてもよい。こうすることで、画像探索部12の探索結果だけの検索結果で満足できるユーザにとって、より利便性の高い画像検索装置を提供できる。
以上が、本実施例における全体の処理フローである。
<画像探索処理>
図6は、本実施例における画像探索処理(図3のステップS012)の詳細を示した処理フローチャートである。この図を参照しながら、具体的な処理の詳細を説明する。なお、この画像探索処理の全ての処理は画像探索部12で実行される。
始めに、画像探索部12が画像取得部11から画像を取得する(ステップS021)。
続いて、取得した画像から対象物体である人物の顔を検出する(ステップS022)。人物の顔を検出する方法に関しては既存の手法を用いればよい。例えば、非特許文献1に記載の手法を用いることができる。
顔の検出を実行した後に、顔の位置とサイズでフィルタリング処理を行う。すなわち、画像に対して所定割合以下の大きさの顔や画像中央付近の所定範囲にない顔は、顔ではないと判定する。
図7はこのフィルタリング処理の一例を説明する模式図である。この模式図は、人物の顔302〜304が写っている画像300を示しており、顔の座標範囲301、基準外接矩形305は、本来は見えないが説明のために表示している。この図の場合、まず、画像300内において、顔の中心位置が顔の座標範囲301の内側にない顔は、除外する。これにより顔304は範囲外なので除外される。
また、基準外接矩形305は、検出された顔の輪郭を囲う外接矩形の基準サイズを示しており、この矩形内に入る顔は小さい顔とみなして除外する。これにより顔303は除外される。以上のフィルタリング処理により、最終的に検出結果の顔として残るのは顔302のみとなる。これにより、以下に続く処理で特定人物が写っているか識別する際に、画像に対して大きく、中央付近に写る顔のみを識別の対象とすることができる。このようにすることでこの画像探索処理では、特定人物が主要被写体として写る画像を探索することができる。
続いて、画像中に人物の顔が一つもない場合(ステップS023でNo)、全画像を処理したかどうかの判定(ステップS029)に進む。
画像中に人物の顔が一つ以上ある場合(ステップS023でYes)、RAM3に事前に読み込んでおいた特定情報を取得する(ステップS024)。特定情報とは、検索クエリとしてユーザが指定する(特定人物の)顔画像であり、ステップS022で検出した顔画像と比較することで、画像中に特定人物が写っているか否か、判定する。特定情報として、顔画像から取得した特徴量を登録するようにしてもよい。特定情報は事前に二次記憶装置4に記憶しておけばよい。特定情報に複数の人物がいる場合、どの人物を検索するかはユーザに選択させてもよい。その場合は、通信装置5を使って他の機器を介したユーザの入力を受信すればよい。
続いて、検出した顔を一つ選択し、特徴量を抽出する(ステップS025)。特徴量を抽出するアルゴリズムに関しては既存の手法を用いればよい。例えば、LBP(Local Binary Pattern)特徴量や、HOG(Histogram of Oriented Gradient)特徴量、SIFT(Scale−Invariant Feature Transform)特徴量などを用いることができる。
特定情報からも、同様に特徴量を抽出する。特定情報が複数の顔画像を含む場合は、全ての顔画像から特徴量を抽出しておく。ただし、特定情報が画像ではなく、特徴量として記憶されている場合は、ここで抽出する必要はない。
続いて、検出した顔から抽出した特徴量と特定情報から抽出した特徴量とを比較し、スコアを算出する(ステップS026)。スコアとは、検出した顔と特定情報の顔がどれだけ類似しているかを示す数値であり、これが高いほど、両者が類似していることを示す。スコアを算出する手法は既存の手法を用いればよい。例えば、コサイン類似度などを用いることができる。特定情報が複数の顔画像を含む場合は、特定情報に含まれる顔画像のそれぞれと検出した顔との全組み合わせについてスコアを算出し、最大のものを代表スコアとして採用する。
続いて、算出したスコアを、事前に定めた閾値と比較して、特定情報の人物と同一人物か否かの判定を行う(ステップS027)。閾値は動的に定めるようにしてもよい。
続いて、検出した顔のうち、スコア算出の処理が終わっていない顔があれば(ステップS028でNo)、ステップS025に戻り、残りの顔に対して処理を行う。
検出した全ての顔に対してスコア算出の処理が終わっていれば(ステップS028でYes)、取得した全画像について処理を完了したか判定する(ステップS029)。
全画像を処理していない場合(ステップS029でNo)、ステップS022に戻り同様の処理を繰り返す。全画像を処理している場合(ステップS029でYes)、探索結果を特定画像数算出部14へ出力する(ステップS030)。
以上が、本実施例における画像探索処理フローである。画像探索処理に関しては、ここで挙げた方法以外の別の方法を用いてもよい。本実施例では顔の画像による識別を行ったが、人間の全身または一部の画像を使って識別してもよい。
<詳細探索処理>
図8は、本実施例における詳細探索処理(図3のステップS016)の詳細を示した処理フローチャートである。この図を参照しながら、具体的な処理の詳細を説明する。なお、この詳細探索処理の全ての処理は詳細探索部16で実行される。
具体的な処理フローは図6の画像探索処理フローと同じ部分が多いため、異なる部分のみ説明し、同様の箇所は説明を省略する。
始めに、詳細探索部16は、詳細探索対象の画像を、詳細探索画像選択部15の出力をもとに、二次記憶装置4から取得する(S031)。
続いて、取得した詳細探索対象の画像から対象物体を検出する(S032)。このとき検出した顔について、図7で説明したフィルタリング処理は実行せず、全画像領域の全てのサイズの顔を検出するようにする。これにより、画像探索処理で顔の位置とサイズによるフィルタリングに起因する見落としを軽減することができる。この詳細探索処理で詳細探索した特定人物の顔はサイズが小さいか、画像の隅に配置されている、のいずれか一方または両方、ということになる。
ユーザが特定の人物が写る画像を探す際に、小さい顔の画像や画像の隅に顔が写った画像を所望しない可能性はある。しかし、あるカテゴリの検索結果が1枚もないような場合は、そのカテゴリでは顔のサイズが事前に定めた閾値より小さく、顔の位置が事前に定めた閾値よりも画像の中央から離れて隅に配置されていても、検索結果に表示された方がユーザの利便性は高い。
なお、本実施例では顔の検出を再度実行したが、画像探索処理フローの対象物体の検出(図6のステップS022)の際の顔の検出結果をRAM3や二次記憶装置4に記憶しておき、再利用してもよい。
この後のステップS033〜S040の処理は、図6のステップ023〜S030の処理と同様であるため説明を省略する。
以上が、本発明における第1の実施例の説明である。
本実施例では、カメラから取得した画像の中から画像検索装置で特定人物が写る画像を検索する方法について説明した。まず、画像探索処理によって特定人物が主要被写体として写る、すなわち、顔が中央付近に大きく写る、特定人物の画を検索した。その上で、特定のカテゴリにおいて検索結果の画像が1枚もなかった場合については、顔の位置とサイズによるフィルタリングを外した詳細探索を実施した。これにより、画像探索処理による画像の見落としのために特定カテゴリにおいて検索結果の画像数が少なくなる現象を軽減することができる。
また、本実施例の詳細探索処理(図3のステップS016)では、顔の位置とサイズによるフィルタリングを外して画像探索処理(図3のステップS012)とは異なる再検索を実施したが、この他の方法を使ってもよい。
例えば、詳細探索処理でスコアと比較する閾値(図8のステップS037)を画像探索処理でスコアと比較する閾値(図6のステップS027)よりも下げて再検索をしてもよい。また、詳細探索処理に使う特徴量(図8のステップS035)を画像探索処理に使う特徴量(図6のステップS025)とは異なるものを使用してもよい。
また、本実施例では、特定の人物が写る画像を検索する場合の画像検索処理について説明したが、人物以外のその他のオブジェクトを検索してもよい。例えば、特定の自動車や動物を検索するようにしてもよい。青空や山といった風景をオブジェクトとして識別して、検索するようにしてもよい。これらのオブジェクトの場合も、画像に対する大きさや画像中の位置を計測することで本実施例を適用することができる。
[第2の実施例]
第1の実施例では、画像検索装置が複数のカメラから画像を取得し、画像検索を行う場合について説明したが、本実施例では、画像検索装置自体が撮像装置を備える場合について説明する。また、第1の実施例では、検出した顔の位置とサイズでフィルタリングを外して詳細探索を実行したが、本実施例では、画像探索結果から顔以外の属性情報を使用して詳細探索を実行する例を説明する。なお、第1の実施例と同じ処理を行う場合は説明を省略し、処理の異なる部分のみを説明する。
<ハードウェア構成>
図9に、本実施例における画像検索装置のハードウェア構成の一例を示す。図9に示すように、本実施例における画像検索装置500は、CPU51、ROM52、RAM53、二次記憶装置54、通信装置55、映像出力装置56、接続バス57、入力装置58および撮像装置59で構成されている。
入力装置58は、ハードウェアボタンで構成されるインターフェース(I/F)であり、ユーザの操作を受け付け、接続バス57を介して、各部へ操作内容を出力する。
撮像装置59は、一般的なカメラで使用されるレンズや撮像素子等で構成されており、撮影した画像をRAM53または二次記憶装置54に記憶する。
この他のハードウェアに関しては第1の実施例と同様であるため、説明を省略する。また、第1の実施例と同様に後述する処理を、CPU51によりソフトウェアで実現することとするが、その処理の一部または全部をハードウェアで実現するようにしても構わない。
<機能構成>
図10は、本実施例における画像検索装置の制御プログラムの機能構成の一例を示したブロック図である。この図に示すように、本実施例の制御プログラムは、画像取得部61、画像探索部62、カテゴリ情報取得部63、特定画像数算出部64、詳細探索画像選択部65、詳細探索部66、および表示部67を含む。以下、第1の実施例の機能構成(図2)と異なる部分について説明する。ここに示す機能構成もハードウェアとソフトウェアの組み合わせによって実現できるものであって、一つの機能ブロックが一つのハードウェアに対応するものではない。
画像探索部62は、二次記憶装置4の画像中から特定人物を探索し、探索結果を特定画像数算出部64、詳細探索部66および表示部67へ出力する。また、特定人物と判断された人物の画像領域から属性情報を判定するための特徴量を抽出し、詳細探索部66へ出力する。属性情報とは、具体的には、その人物の年齢や性別、身長や服の色等の情報である。
<全体の処理>
本実施例では、画像検索装置500が撮像装置59で撮影した画像を二次記憶装置に記憶した上で、ユーザが特定の人物が写った写真を検索し、表示する処理について説明する。
全体の処理フローは第1の実施例と同様であるため、図3を参照しながら、実際の処理について詳細を説明する。なお、第1の実施例と同様の処理は説明を省略する。
始めに、画像取得部61が二次記憶装置54から画像を取得する(ステップS011)。ここで二次記憶装置54に記憶されている画像は、撮像装置59によって撮影された画像である。
続いて、画像探索部62は、画像取得部61から画像を取得し、画像探索処理を行う(ステップS012)。このとき、第1の実施例とは異なり、顔の検出結果を顔の位置・サイズでフィルタリングせずに、全画像領域の全顔サイズについて検出・識別を行う。
検索する特定人物の顔画像は、撮像装置59を用いてユーザに撮影させるようにしてもよいし、入力装置を使って、事前に登録した候補の中からユーザに選択させるようにしてもよい。また、このとき、画像探索の結果、特定人物だと判断された人物について顔以外の属性情報を識別するための特徴量を取得しておく。本実施例では人物の服の色を識別するため、色ヒストグラム特徴量を抽出する。
その他の属性情報を識別するため、属性情報に適した特徴量を抽出するようにしてもよい。LBP(Local Binary Pattern)特徴量や、HOG(Histogram of Oriented Gradient)特徴量、SIFT(Scale−Invariant Feature Transform)特徴量等の既存の手法を用いることができる。この他、属性情報として、眼鏡の有無や、帽子・手袋等の服飾の有無、などが考えられる。
続くステップS013〜S015は第1の実施例と同様であるため説明を省略する。
続いて、詳細探索部66が、詳細探索画像選択部65によって選択された詳細探索対象の画像に対して詳細探索処理を行う(ステップS016)。本実施例では、ステップS012の画像探索処理の結果から顔以外の属性情報を取得して詳細探索する。詳細探索処理の詳細については後述する。
続くステップS017は、第1の実施例と同様であるため説明を省略する。
以上が、本実施例における全体の処理フローである。
<詳細探索処理>
図11は、本実施例における詳細探索処理(図3のステップS016)の詳細を示した処理フローチャートである。この図を参照しながら、具体的な処理の詳細を説明する。なお、この詳細探索処理の全ての処理は詳細探索部66で実行される。
ステップS041からステップS044までの処理は第1の実施例のステップS031からステップS034までの処理と同様であるので、説明を省略する。
続いて、詳細探索部66は、画像探索部62から属性情報を識別するための特徴量を取得し、属性スコアを算出する(ステップS045)。本実施例では、属性情報として服の色を識別するための色ヒストグラム特徴量を画像探索部62で抽出しており、それをこの処理で用いる。
図12は、ここでの処理の一例を示した模式図である。
図12(a)は特定画像と判断された画像600aと、その画像内に人物601aの顔と人体部分の両方が含まれている様子を示している。
図12(b)は、ステップS041で取得した詳細探索対象の画像600bと、その画像内に人物601b、602〜603の顔と人体部分の両方が含まれている様子を示している。ここでユーザが検索したい人物は人物601bであるとする。この例では、人物601bは横を向いているため、画像探索部62の画像探索処理(図12(b)の人物601bの顔領域604bだけを使った画像探索処理)ではスコアが閾値を超えずに見落とされた(特定画像とは判断されなかった)とする。
ここでは、まず、顔領域604bの下方にある服領域605bから色ヒストグラムを抽出する。そして、1)服領域605bから抽出された色ヒストグラムと、2)画像探索部62が特定画像と判断した画像600aから抽出しておいた特定人物と判断された人物601aの服領域605aの色ヒストグラムとを比較し、スコアを算出する。
つまり、本実施例では、詳細探索部66は、
画像探索部62が探索した特定画像600aに写る特定オブジェクト601aの一部(服領域605a)から取得した情報と
画像探索部62が特定画像ではないと判断した画像600bに写るオブジェクト601bの一部であって、画像探索部62が特定画像であると判断した画像600aに写る特定オブジェクトの一部(服領域605a)に相当する部分(服領域605b)から取得した情報と
を比較して特定画像を探索している。
スコアを算出する方法は既存の方法を用いればよい。2つの色ヒストグラム間のヒストグラムインターセクションなどを用いることができる。なお、本実施例では服領域は顔領域の所定距離下方にあるとしているが、別の方法を用いて設定してもよい。例えば、人体のパーツ検出の結果を用いて服領域を設定してもよい。人体のパーツ検出には非特許文献2に記載の方法を用いることができる。
続いて、画像探索部62の処理と同様に顔領域(図12に示す顔領域604)から特徴量を抽出し(S046)、顔領域のスコアを算出する(S047)。本実施例では、顔領域のスコアは、ここで再計算しているが、画像探索部62で計算したものを保持しておき、再利用してもよい。
続いて、顔領域について算出したスコアと属性スコア(服の色の識別スコア)を統合する(S048)。ここでは、以下に示す重みつき和で統合する。
S=α・Fscore+(1−α)・Cscore (数式1)
ここで、Sは統合したスコア、Fscoreが顔領域で算出したスコア、Cscoreが服の色の識別スコア、αは定数で、0<α<1を満たす。統合方法はここで示した方法に限定されない。この他既知の方法を用いてもよい。
ステップS049からステップS052までの処理は第1の実施例のステップS037からステップS040までの処理と同様であるため説明を省略する。
以上のように、本実施例では、画像探索処理で顔領域だけでスコア算出し、詳細探索処理では服領域についてもスコアを算出し、顔領域について算出したスコアと統合した。これにより顔領域だけでは見落とすような横顔の人物(図12の人物601)の見落としを軽減できる。ユーザが特定の人物が写る画像を探す際に、横を向いた顔は所望しない可能性はある。しかし、あるカテゴリの検索結果が1枚もないような場合は、そのカテゴリでは顔が正面を向いていなくても、横を向いた顔でも検索結果に表示されたほうがユーザの利便性は高い。
[その他の実施例]
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1、51 CPU
2、52 ROM
3、53 RAM
4、54 二次記憶装置
5、55 通信装置
6、56 映像出力装置
7、57 接続バス
58 入力装置
59 撮像装置
101、102、103 カメラ
110 撮影時刻
120 撮影場所
130 カテゴリ自動分類結果
300 画像
301 顔の座標範囲
302、303、304 人物の顔
305 基準外接矩形

Claims (12)

  1. 画像を取得する画像取得手段と、
    前記画像取得手段が取得した画像が属するカテゴリを取得するカテゴリ取得手段と、
    前記画像取得手段が取得した画像から特定のオブジェクトが写る特定画像を探索する画像探索手段と、
    前記カテゴリ取得手段が取得したカテゴリ毎に前記特定画像の数を算出する算出手段と、
    前記算出手段が算出したカテゴリ毎の画像数に応じて選択されたカテゴリに属する画像であって前記画像探索手段が前記特定画像ではないと判断した画像の中から前記特定画像を詳細に探索する詳細探索手段と、
    を備えることを特徴とする画像検索装置。
  2. 前記詳細探索手段は、前記算出手段が算出したある前記カテゴリに属する特定画像の数が予め定めた画像数より少ないか、または、ある前記カテゴリに属する前記画像のうち、前記画像探索手段が特定画像と判断した画像の割合が予め定めた割合より低い場合に探索する、
    ことを特徴とする請求項1に記載の画像検索装置。
  3. 前記詳細探索手段は、
    前記画像探索手段が探索した特定画像に写る特定オブジェクトの一部から取得した情報と
    前記画像探索手段が特定画像ではないと判断した画像に写るオブジェクトの一部であって、前記画像探索手段が特定画像であると判断した画像に写る前記特定オブジェクトの前記一部に相当する部分から取得した情報と
    を比較して特定画像を探索する、
    ことを特徴とする請求項1または2に記載の画像検索装置。
  4. 前記画像探索手段は、
    前記画像取得手段が取得した画像に写るオブジェクトが特定のオブジェクトにどれだけ似ているかを示すスコアを算出し、
    予め定めた閾値と前記スコアとを比較することで、前記画像が前記特定画像か否かを判断する、
    ことを特徴とする請求項1から3のいずれか1項に記載の画像検索装置。
  5. 前記詳細探索手段は、
    前記画像取得手段が取得した画像に写るオブジェクトが特定のオブジェクトにどれだけ似ているかを示すスコアであって、前記画像探索手段が算出したスコアと同じ種類のスコアを算出し、
    前記画像探索手段が比較に使用した前記閾値とは異なる値の閾値と前記詳細探索手段が算出した前記スコアとを比較することで、前記画像が前記特定画像か否かを判断する、
    ことを特徴とする請求項4に記載の画像検索装置。
  6. 前記詳細探索手段は、
    前記画像取得手段が取得した画像に写るオブジェクトが特定のオブジェクトにどれだけ似ているかを示すスコアであって、前記画像探索手段が算出したスコアと異なる種類のスコアを算出し、
    予め定めた閾値と前記詳細探索手段が算出した前記スコアとを比較することで、前記画像が前記特定画像か否かを判断する、
    ことを特徴とする請求項4に記載の画像検索装置。
  7. 前記詳細探索手段が探索の対象とする前記特定画像は、前記画像探索手段が探索する前記特定画像よりも、前記特定のオブジェクトのサイズが予め定めた閾値より小さい、または、前記特定のオブジェクトの位置が予め定めた閾値よりも前記画像の中央から離れている、のいずれか一方または両方である
    ことを特徴とする請求項に記載の画像検索装置。
  8. 前記オブジェクトは人物の全身または一部であることを特徴とする請求項1から7のいずれか1項に記載の画像検索装置。
  9. 前記オブジェクトは人物の顔であることを特徴とする請求項8に記載の画像検索装置。
  10. 前記画像探索手段が特定画像と判断した画像と、前記詳細探索手段が特定画像と判断した画像をユーザに提示する提示手段をさらに備え、
    前記提示手段は、前記詳細探索手段が特定画像と判断した画像は、ユーザの要求に応じて提示する、
    ことを特徴とする請求項1から9のいずれか1項に記載の画像検索装置。
  11. 画像取得手段が、画像を取得する画像取得工程と、
    カテゴリ取得手段が、前記画像取得手段が取得した画像が属するカテゴリを取得するカテゴリ取得工程と、
    画像探索手段が、前記画像取得手段が取得した画像から特定のオブジェクトが写る特定画像を探索する画像探索工程と、
    算出手段が、前記カテゴリ取得手段が取得したカテゴリ毎に前記特定画像の数を算出する算出工程と、
    詳細探索手段が、前記算出手段が算出したカテゴリ毎の画像数に応じて選択されたカテゴリに属する画像であって、前記画像探索手段が前記特定画像ではないと判断した画像の中から前記特定画像を詳細に探索する詳細探索工程と、
    を含むことを特徴とする画像検索方法。
  12. コンピュータを、請求項1から10のいずれか1項に記載の画像検索装置の各手段として機能させるためのコンピュータが読取可能なプログラム。

JP2014238234A 2014-11-25 2014-11-25 画像検索装置及び方法 Active JP6463095B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014238234A JP6463095B2 (ja) 2014-11-25 2014-11-25 画像検索装置及び方法
US14/947,080 US10311097B2 (en) 2014-11-25 2015-11-20 Image retrieving apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014238234A JP6463095B2 (ja) 2014-11-25 2014-11-25 画像検索装置及び方法

Publications (2)

Publication Number Publication Date
JP2016099900A JP2016099900A (ja) 2016-05-30
JP6463095B2 true JP6463095B2 (ja) 2019-01-30

Family

ID=56010411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014238234A Active JP6463095B2 (ja) 2014-11-25 2014-11-25 画像検索装置及び方法

Country Status (2)

Country Link
US (1) US10311097B2 (ja)
JP (1) JP6463095B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592742B1 (en) 2015-09-28 2020-03-17 Amazon Technologies, Inc. Agent re-identification
US10593085B2 (en) * 2016-07-06 2020-03-17 Facebook, Inc. Combining faces from source images with target images based on search queries
JP6948123B2 (ja) * 2016-11-09 2021-10-13 シャープ株式会社 画像ファイルリスト表示方法
CN110019872B (zh) * 2017-12-21 2023-08-22 佳能株式会社 索引装置和方法、对象图像检索装置和方法以及监视系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001521250A (ja) * 1997-10-27 2001-11-06 マサチューセッツ・インスティチュート・オブ・テクノロジー 情報の検索および検索システム
JP4173246B2 (ja) * 1999-04-28 2008-10-29 株式会社リコー 類似画像表示方法及び類似画像表示処理プログラムを格納した記録媒体
JP2003296165A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 画像表示方法および装置並びにプログラム
JP2004234228A (ja) * 2003-01-29 2004-08-19 Seiko Epson Corp 画像検索装置、画像検索装置におけるキーワード付与方法、及びプログラム
US20060020597A1 (en) * 2003-11-26 2006-01-26 Yesvideo, Inc. Use of image similarity in summarizing a collection of visual images
US7492921B2 (en) * 2005-01-10 2009-02-17 Fuji Xerox Co., Ltd. System and method for detecting and ranking images in order of usefulness based on vignette score
US8732025B2 (en) * 2005-05-09 2014-05-20 Google Inc. System and method for enabling image recognition and searching of remote content on display
JP4749783B2 (ja) 2005-07-13 2011-08-17 富士フイルム株式会社 代表画像を用いた画像表示方法及び装置
JP5117154B2 (ja) 2007-09-28 2013-01-09 オリンパスイメージング株式会社 画像検索表示装置、画像検索表示方法
US20090132953A1 (en) * 2007-11-16 2009-05-21 Iac Search & Media, Inc. User interface and method in local search system with vertical search results and an interactive map
US8990199B1 (en) * 2010-09-30 2015-03-24 Amazon Technologies, Inc. Content search with category-aware visual similarity
WO2013175608A1 (ja) * 2012-05-24 2013-11-28 株式会社日立製作所 画像解析装置、画像解析システム、画像解析方法
JP2014106682A (ja) * 2012-11-27 2014-06-09 Canon Inc 情報処理装置、情報制御方法及びプログラム
JP2014192795A (ja) * 2013-03-28 2014-10-06 Fujifilm Corp 電子アルバム不足画像検索装置およびその動作制御方法

Also Published As

Publication number Publication date
JP2016099900A (ja) 2016-05-30
US10311097B2 (en) 2019-06-04
US20160147793A1 (en) 2016-05-26

Similar Documents

Publication Publication Date Title
CN110148196B (zh) 一种图像处理方法、装置以及相关设备
JP6332937B2 (ja) 画像処理装置、画像処理方法及びプログラム
AU2014321165B2 (en) Image searching method and apparatus
JP5763965B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR101322168B1 (ko) 실시간 얼굴 인식 장치
JP5823270B2 (ja) 画像認識装置及び方法
EP2557524A1 (en) Method for automatic tagging of images in Internet social networks
JP5899179B2 (ja) 人物認識装置、人物認識方法、人物認識プログラムおよびその記録媒体
US8526742B2 (en) Image processing apparatus, method, and program that classifies data of images
US20120148118A1 (en) Method for classifying images and apparatus for the same
CN102915372A (zh) 图像检索方法、装置及系统
JP6463095B2 (ja) 画像検索装置及び方法
CN106575223B (zh) 图像分类方法和图像分类装置
JP6351243B2 (ja) 画像処理装置、画像処理方法
US20160125260A1 (en) Selecting features from image data
JP2008131330A (ja) 画像表示装置および画像表示方法
WO2021004186A1 (zh) 一种人脸采集方法、装置、系统、设备及介质
JP7142420B2 (ja) 画像処理装置、学習方法、学習済モデル、画像処理方法
KR101252843B1 (ko) 이동 통신 단말기에서 이미지 관리 방법
US20200258236A1 (en) Person segmentations for background replacements
CN108596079B (zh) 手势识别方法、装置及电子设备
JP2017103748A (ja) 画像処理方法およびプログラム
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
CN109815823B (zh) 数据处理方法及相关产品
JP7350208B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181228

R151 Written notification of patent or utility model registration

Ref document number: 6463095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03