JP5660067B2 - 画像検索システム、画像検索装置、画像検索方法、及びプログラム - Google Patents
画像検索システム、画像検索装置、画像検索方法、及びプログラム Download PDFInfo
- Publication number
- JP5660067B2 JP5660067B2 JP2012063791A JP2012063791A JP5660067B2 JP 5660067 B2 JP5660067 B2 JP 5660067B2 JP 2012063791 A JP2012063791 A JP 2012063791A JP 2012063791 A JP2012063791 A JP 2012063791A JP 5660067 B2 JP5660067 B2 JP 5660067B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- sample
- candidate
- name
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Description
また、本発明の他の態様は、撮影されたオブジェクトの画像を、データベースを検索することによって同定するための画像検索システムであって、特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースと、前記撮影されたオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出手段と、前記撮影されたオブジェクトの画像とともに、前記抽出された複数のオブジェクトの見本画像である候補画像と、前記候補画像と対応するオブジェクトの名前と、を表示部に並べて表示させる第1の表示制御手段と、前記表示部に表示されている複数の候補画像を、対応するそれぞれの前記オブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御手段と、通信端末と、該通信端末とネットワークを介して接続されるサーバーとを備え、前記表示部は前記通信端末に備えられ、前記データベースは前記サーバーに備えられていることを特徴とする画像検索システムである。
また、本発明の他の態様は、撮像部で撮影されたオブジェクトの画像を、特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースを検索することによって同定するための画像検索方法であって、コンピュータが、前記撮影されたオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出ステップと、前記撮影されたオブジェクトの画像とともに、前記抽出された複数のオブジェクトの見本画像である候補画像と、前記候補画像と対応するオブジェクトの名前と、を表示部に並べて表示させる第1の表示制御ステップと、前記表示部に表示されている複数の候補画像を、対応するそれぞれのオブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御ステップと、を含むことを特徴とする画像検索方法である。
以下、本発明の実施形態について説明する。
図1は、本発明の一実施形態であるネットワークシステムの全体構成を説明する図である。
10はスマートフォンのような通信端末であり、画像を撮影するための撮像部11、撮影した花の画像や候補画像などを表示する表示部12、ワークメモリとして機能する記憶部13、画像選択や注目点のデータ入力などを行うための操作部14、及び通信端末全体を制御する制御部15、メモリカード16を装着する装着部17を備えている。撮像部11は静止画像と連写若しくは動画像を撮影する機能を有するものであり、本明細書において連写と動画は同意として扱う。記憶部13は撮影した複数の画像を保存しておく保存部13Aを備えている。制御部15はCPU7を備え、花検索のための通信端末10で実行する各種プログラムを記憶するプログラム記憶部8、所定のアルゴリズムに沿ったプログラムを実行することにより花検索を行って候補画像を抽出する抽出部9を含んでいる。
この通信端末10は携帯電話回線や無線LANなどによりインターネット500を介してサーバー100と接続する。
130はワークメモリとして機能する記憶部であり、150はサーバー全体を制御する制御部である。制御部150はCPU70を備えるとともに、花検索のためのCPU70で実行する各種プログラムを記憶するプログラム記憶部80を記憶している。制御部150は更に所定のアルゴリズムに沿ったプログラムを実行することにより花検索を行って候補画像を抽出する抽出部90を含んでいる。従って、通信端末10側に抽出部9を備えていなくても、サーバー100に送って抽出部90により花検索を行うことができる。また、記憶部130は複数のユーザから送られてきた(投稿された)花の画像を記憶する保存部130Aを備えている。
データベース110は特徴情報D2とともに花の見本画像D3、花の名前D1、葉の見本画像D4、及び花の名前を絞り込むための注目点を指示する画像D5を対応づけて記憶している。また、その花の注目点である開花時期、花の大きさ、花弁の色、葉の形、背丈、生育地域、・・・等を、花の候補を絞り込むための注目点情報D6として記憶している。更に、その花の種子から、芽、成長、つぼみ、開花などの育成ガイドや、肥料や水の与え方などの手入れガイドを含むガイド情報D7を記憶している。このガイド情報D7は表示データでも音声データでもよい。花の名前D1をインデックスとして花の見本画像D3、葉の見本画像D4などを記憶しているが、容量の許す範囲で1つの花の名前に対して複数の花の状態、例えば開花前、蕾の時期、開花中、結実中などの画像を記憶させることもできる。
図3乃至図5は、本実施形態の表示部12の表示状態の変化を説明するための図である。
通信端末10の撮像部11で花を撮影したとする。そのとき、表示部12には、図3(A)に示すように、撮影画像Gが表示されている。撮影画像Gには主要被写体である花の画像Fと、背景Bが一緒に写り込んでいる。このとき、既に撮影され記憶部13若しくはメモリカード16に保存されている画像を選択してもよい。D6は、開花時期や花の大きさ、背丈、葉の形など分かっている情報から候補を絞り込むための注目点情報の表示である。
そして、通信端末10の操作部14の操作により、撮影画像Gを選択し、制御部15により図6で後述する花検索プログラムを実行させる。
この状態で、ユーザが、撮影した花の画像Gと表示されている花の見本画像D3の一致を特定できないとき、操作部14の所定の操作により、図4(A)に示すように花の見本画像D3が表示されていた位置に、その花に対応する葉の画像D4に一斉に変更して表示する。これによりユーザは花の形だけでなく葉の形も対比して比較することができる。
なお、図5(A)に示すように葉の見本画像D3の代わりに全体画像D8を表示することもできる。所定閾値以上類似度が高い花の名前が発見されない時は、図5(B)に示すように「条件に合致する花はありません」という案内表示D9を行う。
図6は、本実施形態の花検索システムの全体の動作を示すフローチャートであり、前述した表示を実現するものである。すなわち、制御部15のプログラム記憶部8に記憶されている花検出プログラムをスタートさせると、表示部12に最初に所定のメニュー画面が表示される(ステップS1)。ここで、花を撮影するか、既に撮影して記憶部13の保存部13Aに保存されている撮影画像を選択する(ステップS2)。すると、図3(A)に示した基本画面を表示する(ステップS3)。この状態で操作部14により色々な操作が可能であるが、検索指示を行うとステップS5へ進み、インターネット500などのネットワークを介してサーバー100のデータベース110にアクセスし、花の候補画像を検索し抽出する(ステップS5)。この詳細については図9で後述する。
花を検索する前に注目点情報を指定するとステップS11へ進む。例えば、注目点である花の大きさ、花の色、生育時期、背丈などを指定すると、データベース110の注目点情報D6を検索して条件に当てはまらない花を候補から除外する。これにより、ステップS5と同様の検索処理を行う際に、検索対象を絞り込むことができるので、検索時間が短くなる。表示部12の表示態様は図3(B)と同様である。
ユーザが撮影した花の名前を特定することができれば、終了操作によりフローを終了する(ステップS13)。
ステップS5の検索の結果、類似する花の見本画像が抽出できなかったときは、図5(B)に示すように、「条件に合致する花はありません」という案内表示D9を行う。
そして、データベース110に記憶されている特徴情報D2と比較する(ステップS53)。
比較したデータベース110の特徴情報と花の領域から抽出された特徴情報との類似度を計算し(ステップS54)、類似度の高い順に花の見本画像を例えば6個抽出して(ステップS55)、図3(A)に示すように、花の見本画像を類似度順に並べて表示する(図6のステップS6)。
次に、第2の実施形態を説明する。本実施形態は、被写体を動画で撮影した場合に対応しており、図7における「花の領域切り抜き」(ステップS51)の具体的な手法を例示するものである。この手法によれば、静止画像のみならず、動画像から花の領域を抽出することができる。なお、前記実施形態と共通部分は共通の符号を付し説明は省略している。
すなわち、CPU7は、処理対象画像61に対応するフレーム画像データについて、例えば色、方位、輝度などの複数種類の特徴量のコントラストから、複数種類の特徴量マップを作成する。なお、以下、このような複数種類のうち所定の1種類の特徴量マップを作成するまでの一連の処理を、特徴量マップ作成処理と称する。各特徴量マップ作成処理の詳細例については、図11や図12を参照して後述する。
次に、CPU7は、複数種類の特徴量マップを統合することで、顕著性マップを求める。例えば図8の例では、特徴量マップFc,Fh,Fsが統合されて、顕著性マップSが求められている。
ステップSaの処理は、後述する図9のステップS22の処理に対応する。
ステップSbの処理は、後述する図9のステップS24の処理に対応する。
すなわち、CPU7は、複数段階の注目点領域62−1乃至62−Nを用いて、注目点領域のコア領域を抽出する。例えは、複数段階の注目点領域62−1乃至62−Nの変化が少ない領域や、複数段階の注目点領域62−1乃至62−Nの重複領域などに基づいて、注目点領域のコア領域が抽出される。具体的には例えば図8の例では、注目点領域のコア領域63−1,63−2が抽出されている。
ステップScの処理は、後述する図9のステップS25の処理に対応する。
すなわち、CPU7は、例えば注目点領域のコア領域に基づいて、主要被写体の領域の種と、背景領域の種とをそれぞれ設定する。
なお、設定手法自体は特に限定されない。例えば、注目点領域のコア領域をそのまま、主要被写体の領域の種に設定するという手法を採用することができる。また例えば、注目点領域のコア領域に内接若しくは外接する矩形領域、又は、注目点領域の重心若しくは骨格線などを、主要被写体の領域の種に設定するという手法を採用することができる。また例えば、顕著性が低いコア領域、注目点領域以外の矩形領域、又は、注目点領域以外の領域の重心や骨格線を、背景領域の種に設定するという手法を採用することができる。
例えば図8の例では、主要被写体の領域の種64−1,64−2、及び、背景領域の種65−1,65−2が設定されている。
ステップSdの処理は、後述する図9のステップS26の処理に対応する。
そこで、ステップSeにおいて、CPU7は、事前確率演算処理として、例えば次のような処理を実行する。
すなわち、CPU7は、顕著性マップSの値(ただし、顕著性マップ値を0乃至1の範囲内に正規化した値)を、主要被写体領域の事前確率Pr(O)として演算する。また、CPU7は、顕著性マップSを反転した値(1−顕著性マップSの値)、すなわち1−Pr(O)を、背景領域の事前確率Pr(O)として演算する。例えば図3の例では、同図に示される顕著性マップSから、同図に示される主要被写体の事前確率Pr(O)と背景領域の事前確率Pr(B)とが得られている。
ステップSeの処理は、後述する図9のステップS23の処理に対応する。
ここで、従来のGraph Cuts法では物体と背景の学習のために、物体領域(主要被写体領域)と背景領域の見本となるラベルや種は手動で与えられていた。これに対して、本実施形態では、ステップSdの処理で自動的に設定された主要被写体の種及び背景領域の種を利用することができる。その結果、従来のようにユーザが手動で種を入力する必要が無くなり、また、学習の必要も無くなる。
ステップSfのGraph Cuts法による領域分割処理の結果、上述したように、処理対象画像61は、主要被写体の領域と背景領域に分割される。
ステップSfの処理は、後述する図9のステップS27の処理に対応する。
ステップS21において、CPU7は、図6のステップS5乃至S8のループ処理の結果得られた動画像データなどの中から、所定の撮影画像データ(フレーム画像データ)を処理対象画像データとして設定する。
上述したように、注目点領域推定処理では、注目点領域の推定のために、顕著性マップが作成される。したがって、注目点領域推定処理に対して、例えば、Treismanの特徴統合理論や、Itti及びKochらによる顕著性マップを適用することができる。
図11は、輝度、色、及び、方向性の特徴量マップ作成処理の流れの一例を示すフローチャートである。
図11(B)の色の特徴量マップ作成処理は、図11(A)の輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図11(B)のステップS81乃至S86のそれぞれの処理は、図11(A)のステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図11(A)とは異なるだけである。したがって、図11(B)の色の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
また、図11(A)のステップS64の処理では、輝度のCenter−Surroundスケール間差分が、輝度コントラストI(c,s)として求められた。これに対して、図11(B)のステップS84の処理では、色相(R/G,B/Y)のCenter−Surroundスケール間差分が、色相コントラストとして求められる。なお、色成分のうち、赤の成分がRで示され、緑の成分がGで示され、青の成分がBで示され、黄の成分がYで示されている。また、以下、色相R/Gについての色相コントラストを、RG(c,s)と記述し、色相B/Yについての色相コントラストを、BY(c,s)と記述する。
最終的に、図11(A)のステップS66の処理で、輝度の特徴量マップFIが求められた。
これに対して、図11(B)のステップS86の処理で、色の特徴量マップが求められる。なお、以下、色の特徴量マップを、他の特徴量マップと区別すべく、FCと記述する。
図11(C)の方向性の特徴量マップ作成処理は、図11(A)の輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図11(C)のステップS101乃至S106のそれぞれの処理は、図11(A)のステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図11(A)とは異なるだけである。したがって、図11(C)の方向性の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
また、ステップS104の処理では、方向性のCenter−Surroundスケール間差分が、方向性コントラストとして求められる。なお、以下、方向性コントラストを、O(c,s,θ)と記述する。
最終的に、ステップS106の処理で、方向性の特徴量マップが求められる。なお、以下、方向性の特徴量マップを、他の特徴量マップと区別すべく、FOと記述する。
ステップS121において、CPU7は、マルチスケールのコントラストの特徴量マップを求める。これにより、マルチスケールのコントラストの特徴量マップ作成処理は終了となる。
なお、以下、マルチスケールのコントラストの特徴量マップを、他の特徴量マップと区別すべく、Fcと記述する。
なお、以下、Center−Surroundの色ヒストグラムの特徴量マップを、他の特徴量マップと区別すべく、Fhと記述する。
なお、色空間分布の特徴量マップを、他の特徴量マップと区別すべく、Fsと記述している。
第3の実施形態は、通信端末10の保存部13A若しくはサーバー100の保存部130Aに既に撮影され保存されている撮影された花の画像と、新たに撮影した花の画像が一致するか否かを判定するものである。すなわち、同じ花を2度撮影したものであるかどうかを判定する。これは、ユーザが自分で花の種をまいたり株を植えたりして育てる場合に有用な実施形態である。なお、実施形態と共通部分は共通の符号を付し説明は省略している。
前述したように、第1の実施形態では花の撮像画像として静止画を撮影するようにした。本実施形態では、動画若しくは連写撮影するようにしたものである。本実施形態では、撮像部11の動画像撮影機能により、花の画像Fを動画(連写)撮影することによって、複数フレームの花の画像を得る。複数フレームの花の画像から花の領域を抽出するアルゴリズムは、第2の実施形態で説明したアルゴリズムを適用できる。
また、実施形態では通信端末は携帯電話回線や無線LANなどによりインターネットを介してサーバーと接続するシステムを例にとって説明したが、通信端末とサーバーが近距離にある場合は赤外線通信やブルートゥース(登録商標)で接続してもよい。
また、実施形態では通信端末が撮像部を備え、撮像部で撮影した花の画像を検索するシステムを例にとって説明したが、既に撮影されている花の画像を、メモリカードなどを介して得て検索することもできる。
[請求項1]
撮影されたオブジェクトの画像を、データベースを検索することによって同定するための画像検索システムであって、
特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースと、
前記撮影されたオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出手段と、
前記撮影されたオブジェクトの画像とともに、
a)前記抽出された複数のオブジェクトの見本画像である候補画像、
b)前記候補画像と対応するオブジェクトの名前、
を表示部に並べて表示させる第1の表示制御手段と、
前記表示部に表示されている複数の候補画像を、対応するそれぞれの前記オブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御手段と、
を備えることを特徴とする画像検索システム。
これにより、撮影したオブジェクトの候補として得られた見本画像と比較しただけではユーザが同定しにくくても、並べて表示している各見本画像をそれぞれ他の部位の見本画像の表示に変更することができるので、オブジェクトとは違う観点からオブジェクトの同定を試みることができる。
更に、前記表示部に表示されている前記候補画像の一つを選択すると、選択された候補画像に対応するオブジェクトの名前を前記撮影されたオブジェクトであると同定する同定手段を備えることを特徴とする請求項1に記載の画像検索システム。
これにより、コンピュータの画像認識の精度がそれほど高くなくても、見やすい表示画面と簡単な操作でユーザは撮影したオブジェクトを同定することができる。
前記第1の表示制御手段は、前記複数のオブジェクトの見本画像である候補画像を、前記類似度が高い順に配置するとともに、
前記第2の表示制御手段は、前記第1の表示制御手段が配置した複数のオブジェクトの見本画像である候補画像と同じ位置に、対応するそれぞれのオブジェクトの他の部位の見本画像を候補画像として配置することを特徴とする請求項1に記載の画像検索システム。
これにより、オブジェクトの見本画像は類似度の高い順に表示されるが、他の部位の見本画像は類似度の高い順ではなく、オブジェクトの見本画像が表示されていたその位置に表示されるので、ユーザの無用な混乱を防ぐことができる。
更に、前記第1の表示制御手段は、前記表示部に表示されている複数の候補画像を、対応するそれぞれの注目点を指示する画像に変更して、前記表示部に表示させる第3の表示制御手段を備えることを特徴とする請求項1に記載の画像検索システム。
これにより、それでも区別がつきにくいときは、各候補画像を対応するそれぞれの注目点を指示する画像に変更することができるので、どこに注目すれば撮影したオブジェクトの特徴をとらえやすいかがわかり、絞り込みがしやすいという効果がある。従って、簡単な操作で、似たオブジェクトの中から撮影したオブジェクトの同定を試みることができる。
前記抽出手段は、
前記注目点により前記候補画像を絞り込む絞り込み手段を含むことを特徴とする請求項1に記載の画像検索システム。
これにより、検索の候補を絞り込むことができるので、検索時間を短縮することができる。
前記抽出手段は、
撮影されたオブジェクトの画像の特徴情報に基づく顕著性マップを用いて、注目点領域を推定する推定部と、
前記推定部により推定された前記注目点領域を用いて、前記撮影されたオブジェクトの画像を前記主要被写体であるオブジェクトの領域と背景領域とに分割する分割部と、
前記撮影されたオブジェクトの画像から、前記分割部により分割された前記主要被写体の領域を抽出する抽出部と、
を含むことを特徴とする請求項1に記載の画像検索システム。
これにより、静止画像撮影であっても動画像撮影であっても、ユーザ自身でオブジェクトの部分を切り抜いたり、一色の背景の前にオブジェクトを置いて撮影したりするなどの手間をかけなくても、撮影画像から主要被写体であるオブジェクトの領域と背景領域を分割することができる。
前記分割部は、前記注目点領域を含む所定領域から定義したエネルギー関数を用いる所定のアルゴリズムにしたがって、前記撮影されたオブジェクトの画像を前記主要被写体の領域と前記背景領域とに分割することを特徴とする請求項6に記載の画像検索システム。
オブジェクトの領域と背景領域を分割する際には、適切なアルゴリズムを選択することができる。
前記所定のアルゴリズムは、Graph Cuts法であることを特徴とする請求項6に記載の画像検索システム。
汎用的なGraph Cuts法を用いるので、プログラムの設計が比較的容易である。
前記撮影されたオブジェクトの画像から輪郭線若しくはエッジ形状を抽出する輪郭線抽出部を更に備え、
前記分割部は、前記輪郭線抽出部により抽出された前記輪郭線又は前記エッジ形状により特定される輪郭線のうち、前記注目点領域と重なる輪郭線の内側領域を前記主要被写体の領域とし、当該輪郭線の外側領域を前記背景領域とすることで、前記撮影されたオブジェクトの画像を前記主要被写体の領域と前記背景領域とに分割することを特徴とする請求項6に記載の画像検索システム。
これにより、主要被写体の検出精度を向上することができる。
当該画像検索システムは通信端末と該通信端末とネットワークを介して接続されるサーバーを含み、
前記表示部は前記通信端末に備えられ、前記データベースは前記サーバーに備えられていることを特徴とする請求項1に記載の画像検索システム。
これにより、データベースがサーバーに備えられているので、データベースの容量を大きくすることが可能であり、更に蓄積されたデータベースの追加やメンテナンスが容易であるという効果を奏する。
更に、前記第1、第2及び第3の表示制御手段は前記通信端末に備えられ、前記抽出手段は前記サーバーに備えられていることを特徴とする請求項9に記載の画像検索システム。
これにより、抽出アルゴリズムをサーバーのCPUで実行するので、通信端末の負担を軽くすることができる。
更に、前記第1、第2及び第3の表示制御手段は前記サーバーに備えられていることを特徴とする請求項9に記載の画像検索システム。
これにより、表示制御をサーバーのCPUで実行するので、格別のオブジェクト検索用制御手段を備えていない通信端末でもオブジェクト検索を実行することができる。
更に、前記前記撮影されたオブジェクトの画像を保存する保存手段と、
前記撮像部により撮影したオブジェクトの画像の名前が前記保存手段に保存されているオブジェクトの画像の名前と一致するか否かを判定する判定手段と
を備えることを特徴とする請求項1に記載の画像検索システム。
これにより、一度撮影したことのあるオブジェクトを再度撮影したとき、前回撮影したオブジェクトと同じオブジェクトであることを判定できる。
前記データベースは、
更に前記オブジェクトの名前と対応づけてオブジェクトのガイド情報を記憶し、
前記判定手段により、撮影したオブジェクトの画像の名前が前記保存手段に保存されているオブジェクトの画像の名前と一致すると判定されたとき、前記同定手段により同定されたオブジェクトの名前に対応するガイド情報を案内する第1の案内手段を更に備えることを特徴とする請求項13に記載の画像検索システム。
これにより、オブジェクトのガイド情報を参考にすることができる。
更に動画像を撮影する動画像撮像手段を含み、
前記抽出手段は、前記動画像撮像手段により撮影された動画像から主要被写体の領域を抽出することを特徴とする請求項6に記載の画像検索システム。
これにより、1つのオブジェクトの撮影画像が複数枚得られるので、より精度よくオブジェクト検索を行うことができる。
前記抽出手段が、前記撮影されたオブジェクトの画像に対し前記類似度が高いオブジェクトの見本画像の抽出ができなかったとき、前記動画像撮像手段の起動を要求する第2の案内手段を更に備えることを特徴とする請求項15に記載の画像検索システム。
これにより、最初は静止画像でオブジェクトを撮影し、十分な検索結果が得られなかったときは、動画像でオブジェクトを撮影するように案内するので、ユーザは改めて動画像でオブジェクトを撮影し、オブジェクト検索を行うことができる。
前記オブジェクトは、
花であり、
前記データベースは、
特徴情報とともに花の見本画像、花の名前、葉の見本画像、及び前記花の名前を絞り込むための注目点を指示する画像を対応づけて記憶する
ことを特徴とする請求項1乃至16に記載の画像検索システム。
これにより、撮影した花の候補として得られた見本花画像と比較しただけではユーザが同定しにくくても、並べて表示している各見本花画像をそれぞれ葉の見本画像の表示に変更することができるので、花とは違う観点から花の同定を試みることができる。
撮像部で撮影されたオブジェクトの画像を、特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースを検索することによって同定するための画像検索装置のコンピュータを、
前記撮影されたオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出手段と、
前記撮影されたオブジェクトの画像とともに、
a)前記抽出された複数のオブジェクトの見本画像である候補画像、
b)前記候補画像と対応するオブジェクトの名前、
を表示部に並べて表示させる第1の表示制御手段と、
前記表示部に表示されている複数の候補画像を、対応するそれぞれのオブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御手段と、
して機能させることを特徴とする画像検索プログラム。
これにより、撮影したオブジェクトを簡単な操作で迅速に検索することができる画像検索システムのプログラムを得ることができる。
撮像部と表示部を備えた通信端末のコンピュータを、
オブジェクトの画像を撮影する撮像手段と、
前記撮影されたオブジェクトの画像を、ネットワークを介してサーバーへ送信する送信手段と、
前記サーバーから送られてくる、
a)前記撮影されたオブジェクトの画像に類似度が高い複数のオブジェクトの見本画像である候補画像、
b)前記候補画像に対応するオブジェクトの名前、
d)前記候補画像に対応するそれぞれのオブジェクトの他の部位の見本画像、
を受信する受信手段と、
前記撮影されたオブジェクトの画像とともに、受信した
a)前記抽出された複数のオブジェクトの見本画像である候補画像、
b)前記候補画像と対応するオブジェクトの名前、
を表示部に並べて表示させる第1の表示制御手段と、
前記表示部に表示されている複数の候補画像を、前記d)候補画像に対応するそれぞれのオブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御手段と、
して機能させることを特徴とする画像検索プログラム。
これにより、撮影したオブジェクトを簡単な操作で迅速に検索することができる通信端末のプログラムを得ることができる。
外部の通信端末からネットワークを介して送られてくるオブジェクトの画像を、特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースを検索することによって同定するためのサーバーのコンピュータを、
前記通信端末から送られてくるオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出手段と、
a)前記抽出された複数のオブジェクトの見本画像である候補画像、
b)前記候補画像と対応するオブジェクトの名前、
d)前記候補画像に対応するそれぞれのオブジェクトの他の部位の見本画像、
を前記データベースから読み出して前記通信端末に送信する手段と、
前記通信端末側で前記候補画像の一つが選択されると、その選択情報を受信して前記送られてきたオブジェクトの画像に対応するオブジェクトの名前を同定する同定手段と、
して機能させることを特徴とする画像検索プログラム。
これにより、撮影したオブジェクトを簡単な操作で迅速に検索することができるサーバーのプログラムを得ることができる。
8 プログラム記憶部
9 抽出部
10 通信端末
11 撮像部
12 表示部
13 記憶部
13A 保存部
14 操作部
15 制御部
16 メモリカード
17 装着部
61 撮影画像(処理対象画像)
70 CPU
80 プログラム記憶部
90 抽出部
100サーバー
110 データベース
130 記憶部
130A 保存部
150 制御部
B 背景画像
F 花の画像
G 撮影画像
D1 花の名前
D2 特徴情報
D3 花の見本画像
D4 葉の見本画像
D5 注目点を指示する画像
D6 注目点情報
D7 ガイド情報
D8 花の葉や茎を含む全体の見本画像
Claims (21)
- 撮影されたオブジェクトの画像を、データベースを検索することによって同定するための画像検索装置であって、
特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースと、
前記撮影されたオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出手段と、
前記撮影されたオブジェクトの画像とともに、
前記抽出された複数のオブジェクトの見本画像である候補画像と、
前記候補画像と対応するオブジェクトの名前と、
を表示部に並べて表示させる第1の表示制御手段と、
前記表示部に表示されている複数の候補画像を、対応するそれぞれの前記オブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御手段と、
を備えることを特徴とする画像検索装置。 - 更に、前記表示部に表示されている前記候補画像の一つを選択すると、選択された候補画像に対応するオブジェクトの名前を前記撮影されたオブジェクトであると同定する同定手段を備えることを特徴とする請求項1に記載の画像検索装置。
- 前記第1の表示制御手段は、前記複数のオブジェクトの見本画像である候補画像を、前記類似度が高い順に配置するとともに、
前記第2の表示制御手段は、前記第1の表示制御手段が配置した複数のオブジェクトの見本画像である候補画像と同じ位置に、対応するそれぞれのオブジェクトの他の部位の見本画像を候補画像として配置することを特徴とする請求項1または2に記載の画像検索装置。 - 更に、前記第1の表示制御手段は、前記表示部に表示されている複数の候補画像を、対応するそれぞれの注目点を指示する画像に変更して、前記表示部に表示させる第3の表示制御手段を備えることを特徴とする請求項1ないし3のいずれかに記載の画像検索装置。
- 前記抽出手段は、
前記注目点により前記候補画像を絞り込む絞り込み手段を含むことを特徴とする請求項4に記載の画像検索装置。 - 前記抽出手段は、
撮影されたオブジェクトの画像の特徴情報に基づく顕著性マップを用いて、注目点領域を推定する推定部と、
前記推定部により推定された前記注目点領域を用いて、前記撮影されたオブジェクトの画像を主要被写体であるオブジェクトの領域と背景領域とに分割する分割部と、
前記撮影されたオブジェクトの画像から、前記分割部により分割された前記主要被写体の領域を抽出する抽出部と、
を含むことを特徴とする請求項1ないし5のいずれかに記載の画像検索装置。 - 前記分割部は、前記注目点領域を含む所定領域から定義したエネルギー関数を用いる所定のアルゴリズムにしたがって、前記撮影されたオブジェクトの画像を前記主要被写体の領域と前記背景領域とに分割することを特徴とする請求項6に記載の画像検索装置。
- 前記所定のアルゴリズムは、Graph Cuts法であることを特徴とする請求項7に記載の画像検索装置。
- 前記撮影されたオブジェクトの画像から輪郭線若しくはエッジ形状を抽出する輪郭線抽出部を更に備え、
前記分割部は、前記輪郭線抽出部により抽出された前記輪郭線又は前記エッジ形状により特定される輪郭線のうち、前記注目点領域と重なる輪郭線の内側領域を前記主要被写体の領域とし、当該輪郭線の外側領域を前記背景領域とすることで、前記撮影されたオブジェクトの画像を前記主要被写体の領域と前記背景領域とに分割することを特徴とする請求項6に記載の画像検索装置。 - 撮影されたオブジェクトの画像を、データベースを検索することによって同定するための画像検索システムであって、
特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースと、
前記撮影されたオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出手段と、
前記撮影されたオブジェクトの画像とともに、
前記抽出された複数のオブジェクトの見本画像である候補画像と、
前記候補画像と対応するオブジェクトの名前と、
を表示部に並べて表示させる第1の表示制御手段と、
前記表示部に表示されている複数の候補画像を、対応するそれぞれの前記オブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御手段と、
通信端末と、
該通信端末とネットワークを介して接続されるサーバーとを備え、
前記表示部は前記通信端末に備えられ、前記データベースは前記サーバーに備えられていることを特徴とする画像検索システム。 - 更に、前記第1及び第2の表示制御手段は前記通信端末に備えられ、前記抽出手段は前記サーバーに備えられていることを特徴とする請求項10に記載の画像検索システム。
- 更に、前記第1及び第2の表示制御手段は前記サーバーに備えられていることを特徴とする請求項10に記載の画像検索システム。
- 更に、前記撮影されたオブジェクトの画像を保存する保存手段と、
前記撮影されたオブジェクトの画像の名前が前記保存手段に保存されているオブジェクトの画像の名前と一致するか否かを判定する判定手段と
を備えることを特徴とする請求項10ないし12のいずれかに記載の画像検索システム。 - 更に、前記表示部に表示されている複数の候補画像の一つを選択すると、選択された候補画像に対応するオブジェクトの名前を前記撮影されたオブジェクトであると同定する同定手段を備え、
前記データベースは、
更に前記オブジェクトの名前と対応づけてオブジェクトのガイド情報を記憶し、
前記判定手段により、撮影したオブジェクトの画像の名前が前記保存手段に保存されているオブジェクトの画像の名前と一致すると判定されたとき、前記同定手段により同定されたオブジェクトの名前に対応するガイド情報を案内する第1の案内手段を更に備えることを特徴とする請求項13に記載の画像検索システム。 - 更に動画像を撮影する動画像撮像手段を含み、
前記抽出手段は、
前記動画像撮像手段により撮影された動画像から主要被写体の領域を抽出することを特徴とする請求項6に記載の画像検索装置。 - 前記抽出手段が、前記撮影されたオブジェクトの画像に対し前記類似度が高いオブジェクトの見本画像の抽出ができなかったとき、前記動画像撮像手段の起動を要求する第2の案内手段を更に備えることを特徴とする請求項15に記載の画像検索装置。
- 前記オブジェクトは、
花であり、
前記データベースは、
特徴情報とともに花の見本画像、花の名前、葉の見本画像、及び前記花の名前を絞り込むための注目点を指示する画像を対応づけて記憶する
ことを特徴とする請求項1乃至9のいずれか、または15、または16に記載の画像検索装置。 - 撮像部で撮影されたオブジェクトの画像を、特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースを検索することによって同定するための画像検索装置のコンピュータを、
前記撮影されたオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出手段と、
前記撮影されたオブジェクトの画像とともに、
前記抽出された複数のオブジェクトの見本画像である候補画像と、
前記候補画像と対応するオブジェクトの名前と、
を表示部に並べて表示させる第1の表示制御手段と、
前記表示部に表示されている複数の候補画像を、対応するそれぞれのオブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御手段と、
して機能させることを特徴とする画像検索プログラム。 - 撮像部と表示部を備えた通信端末のコンピュータを、
オブジェクトの画像を撮影する撮像手段と、
前記撮影されたオブジェクトの画像を、ネットワークを介してサーバーへ送信する送信手段と、
前記サーバーから送られてくる、
前記撮影されたオブジェクトの画像に類似度が高い複数のオブジェクトの見本画像である候補画像と、
前記候補画像に対応するオブジェクトの名前と、
前記候補画像に対応するそれぞれのオブジェクトの他の部位の見本画像と、
を受信する受信手段と、
前記撮影されたオブジェクトの画像とともに、受信した
前記撮影されたオブジェクトの画像に類似度が高い複数のオブジェクトの見本画像である候補画像と、
前記候補画像と対応するオブジェクトの名前と、
を表示部に並べて表示させる第1の表示制御手段と、
前記表示部に表示されている複数の候補画像を、前記候補画像に対応するそれぞれのオブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御手段と、
して機能させることを特徴とする画像検索プログラム。 - 外部の通信端末からネットワークを介して送られてくるオブジェクトの画像を、特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースを検索することによって同定するためのサーバーのコンピュータを、
前記通信端末から送られてくるオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出手段と、
前記抽出された複数のオブジェクトの見本画像である候補画像と、
前記候補画像と対応するオブジェクトの名前と、
前記候補画像に対応するそれぞれのオブジェクトの他の部位の見本画像と、
を前記データベースから読み出して前記通信端末に送信する第1の送信手段と、
前記第1の送信手段により送信した複数の候補画像を、前記候補画像に対応するそれぞれのオブジェクトの他の部位の見本画像に変更して、前記通信端末に送信する第2の表示制御手段と、
前記通信端末側で前記候補画像の一つが選択されると、その選択情報を受信して前記送られてきたオブジェクトの画像に対応するオブジェクトの名前を同定する同定手段と、
して機能させることを特徴とする画像検索プログラム。 - 撮像部で撮影されたオブジェクトの画像を、特徴情報とともにオブジェクトの見本画像、オブジェクトの名前、オブジェクトの他の部位の見本画像を対応づけて記憶しているデータベースを検索することによって同定するための画像検索方法であって、コンピュータが、
前記撮影されたオブジェクトの画像の特徴情報と前記データベースに記憶されている特徴情報と比較することによって、前記撮影されたオブジェクトの画像に類似度が高いオブジェクトの見本画像を候補画像として複数抽出する抽出ステップと、
前記撮影されたオブジェクトの画像とともに、
前記抽出された複数のオブジェクトの見本画像である候補画像と、
前記候補画像と対応するオブジェクトの名前と、
を表示部に並べて表示させる第1の表示制御ステップと、
前記表示部に表示されている複数の候補画像を、対応するそれぞれのオブジェクトの他の部位の見本画像に変更して、前記表示部に表示させる第2の表示制御ステップと、
を含むことを特徴とする画像検索方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063791A JP5660067B2 (ja) | 2012-03-21 | 2012-03-21 | 画像検索システム、画像検索装置、画像検索方法、及びプログラム |
US13/831,293 US9002071B2 (en) | 2012-03-21 | 2013-03-14 | Image search system, image search apparatus, image search method and computer-readable storage medium |
CN201310089244.7A CN103324655B (zh) | 2012-03-21 | 2013-03-20 | 图像检索系统、图像检索装置以及图像检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063791A JP5660067B2 (ja) | 2012-03-21 | 2012-03-21 | 画像検索システム、画像検索装置、画像検索方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013196458A JP2013196458A (ja) | 2013-09-30 |
JP5660067B2 true JP5660067B2 (ja) | 2015-01-28 |
Family
ID=49193402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012063791A Active JP5660067B2 (ja) | 2012-03-21 | 2012-03-21 | 画像検索システム、画像検索装置、画像検索方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9002071B2 (ja) |
JP (1) | JP5660067B2 (ja) |
CN (1) | CN103324655B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8923626B1 (en) | 2012-06-25 | 2014-12-30 | Google Inc. | Image retrieval |
JP6064392B2 (ja) * | 2012-06-29 | 2017-01-25 | 株式会社リコー | 検索装置、検索方法、検索プログラムおよび検索システム |
KR102260805B1 (ko) | 2014-08-06 | 2021-06-07 | 삼성전자주식회사 | 이미지 검색 장치 및 그 방법 |
JP2016045645A (ja) * | 2014-08-21 | 2016-04-04 | アシストシステムズ株式会社 | サーバ装置、データベースシステム、及び検索プログラム |
CN104239584B (zh) * | 2014-10-15 | 2017-10-20 | 江南大学 | 基于Android的蕾丝面料检索系统及检索方法 |
JP2016191845A (ja) * | 2015-03-31 | 2016-11-10 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6529315B2 (ja) * | 2015-04-09 | 2019-06-12 | キヤノン株式会社 | 主被写体検出方法、主被写体検出装置及びプログラム |
JP6333871B2 (ja) * | 2016-02-25 | 2018-05-30 | ファナック株式会社 | 入力画像から検出した対象物を表示する画像処理装置 |
EP3349184A1 (en) * | 2017-01-16 | 2018-07-18 | Keygene N.V. | Monitoring plants |
JP6818000B2 (ja) * | 2018-11-30 | 2021-01-20 | アシストシステムズ株式会社 | サーバ装置、データベースシステム、及び検索プログラム |
US10557105B1 (en) | 2019-08-09 | 2020-02-11 | Bao Tran | Extraction systems and methods |
CN116701695B (zh) * | 2023-06-01 | 2024-01-30 | 中国石油大学(华东) | 一种级联角点特征与孪生网络的图像检索方法及系统 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2375212B (en) * | 1999-04-29 | 2003-06-11 | Mitsubishi Electric Inf Tech | Method and apparatus for searching for an object using shape |
JP2001014333A (ja) * | 1999-06-30 | 2001-01-19 | Telecommunication Advancement Organization Of Japan | 画像検索システムおよび画像データベース管理装置 |
JP3918143B2 (ja) | 2000-12-28 | 2007-05-23 | 独立行政法人科学技術振興機構 | 植物認識システム |
JP2004062804A (ja) * | 2002-07-31 | 2004-02-26 | Ricoh Co Ltd | 画像の分類方法、画像特徴量空間表示方法、プログラムおよび記録媒体 |
JP2004240750A (ja) * | 2003-02-06 | 2004-08-26 | Canon Inc | 画像検索装置 |
US20050076004A1 (en) * | 2003-09-30 | 2005-04-07 | Hiroyuki Yanagisawa | Computer, database generating method for electronic picture book service, photographed subject information providing method, recording medium, and computer data signal |
JP2005117182A (ja) * | 2003-10-03 | 2005-04-28 | Canon Inc | 画像表示装置、画像表示方法、プログラム及び記録媒体 |
US7822233B2 (en) * | 2003-11-14 | 2010-10-26 | Fujifilm Corporation | Method and apparatus for organizing digital media based on face recognition |
WO2005058018A2 (en) * | 2003-12-16 | 2005-06-30 | Aerulean Plant Identification Systems, Inc. | System and method for plant identification |
US8301389B2 (en) * | 2003-12-16 | 2012-10-30 | Dunlap Susan C | System and method for plant selection |
JP2007133816A (ja) | 2005-11-14 | 2007-05-31 | Nikon Corp | 植物同定システム、及び生物同定システム |
JP4831314B2 (ja) * | 2006-01-26 | 2011-12-07 | 株式会社ニコン | 対象物認識システム |
JP2007286767A (ja) * | 2006-04-13 | 2007-11-01 | Canon Inc | 画像検索システム、及び、画像検索サーバ及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体 |
JP2008015599A (ja) * | 2006-07-03 | 2008-01-24 | Nikon Corp | 電子機器および検索補助プログラム |
US8189880B2 (en) * | 2007-05-29 | 2012-05-29 | Microsoft Corporation | Interactive photo annotation based on face clustering |
JP5194826B2 (ja) * | 2008-01-18 | 2013-05-08 | 株式会社リコー | 情報検索装置、情報検索方法及び制御プログラム |
JP2010279022A (ja) * | 2009-04-30 | 2010-12-09 | Sanyo Electric Co Ltd | 撮像装置 |
US8542950B2 (en) * | 2009-06-02 | 2013-09-24 | Yahoo! Inc. | Finding iconic images |
JP2011035636A (ja) | 2009-07-31 | 2011-02-17 | Casio Computer Co Ltd | 画像処理装置及び方法 |
JP5438436B2 (ja) * | 2009-08-27 | 2014-03-12 | 株式会社日立国際電気 | 画像検索装置 |
US8352465B1 (en) * | 2009-09-03 | 2013-01-08 | Google Inc. | Grouping of image search results |
JP2012221211A (ja) * | 2011-04-08 | 2012-11-12 | Nintendo Co Ltd | 情報処理装置、情報処理プログラム、情報処理方法および情報処理システム |
JP5714452B2 (ja) * | 2011-08-29 | 2015-05-07 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理方法および情報処理システム |
-
2012
- 2012-03-21 JP JP2012063791A patent/JP5660067B2/ja active Active
-
2013
- 2013-03-14 US US13/831,293 patent/US9002071B2/en active Active
- 2013-03-20 CN CN201310089244.7A patent/CN103324655B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN103324655A (zh) | 2013-09-25 |
JP2013196458A (ja) | 2013-09-30 |
CN103324655B (zh) | 2017-04-12 |
US9002071B2 (en) | 2015-04-07 |
US20130251266A1 (en) | 2013-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5660067B2 (ja) | 画像検索システム、画像検索装置、画像検索方法、及びプログラム | |
US11822600B2 (en) | Content tagging | |
US8908976B2 (en) | Image information processing apparatus | |
US20140254922A1 (en) | Salient Object Detection in Images via Saliency | |
US20220383053A1 (en) | Ephemeral content management | |
CN111259846B (zh) | 文本定位方法和系统以及文本定位模型训练方法和系统 | |
JP5018614B2 (ja) | 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム | |
US8320609B2 (en) | Device and method for attaching additional information | |
AU2018202767A1 (en) | Data structure and algorithm for tag less search and svg retrieval | |
CN113887545B (zh) | 一种基于目标检测模型的腹腔镜手术器械识别方法及装置 | |
CN115331071A (zh) | 一种基于多尺度特征图的结核性脑膜脑炎预测方法及系统 | |
CN113763415B (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
Hofmann et al. | Efficiently annotating object images with absolute size information using mobile devices | |
US20230245495A1 (en) | Face recognition systems data collection process | |
JP2014063377A (ja) | 画像処理装置およびプログラム | |
US20230326012A1 (en) | Automated plant grouping and tracking using image data | |
JP7370759B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP7230716B2 (ja) | 情報処理装置及び指標値算出方法 | |
WO2020139662A1 (en) | Method and apparatus for measuring plant trichomes | |
Collazos et al. | A photogrammetric system for dendrometric feature estimation of individual trees | |
KR102439122B1 (ko) | 메타버스 환경 내 사용자 위치분석 모니터링 시스템 | |
CN104615614B (zh) | 获取可伸缩全局特征描述子的方法 | |
CN117079060B (zh) | 一种基于光合信号的叶片智能分类方法和系统 | |
US12001475B2 (en) | Mobile image search system | |
JP2006209492A (ja) | オブジェクト情報提供サーバ、オブジェクト情報提供システム、オブジェクト情報提供方法、及びオブジェクト情報提供プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5660067 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |