JP2007251720A - 対象物認識システム - Google Patents

対象物認識システム Download PDF

Info

Publication number
JP2007251720A
JP2007251720A JP2006073979A JP2006073979A JP2007251720A JP 2007251720 A JP2007251720 A JP 2007251720A JP 2006073979 A JP2006073979 A JP 2006073979A JP 2006073979 A JP2006073979 A JP 2006073979A JP 2007251720 A JP2007251720 A JP 2007251720A
Authority
JP
Japan
Prior art keywords
image
images
recognition system
object recognition
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006073979A
Other languages
English (en)
Inventor
Koichi Wakamiya
孝一 若宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006073979A priority Critical patent/JP2007251720A/ja
Publication of JP2007251720A publication Critical patent/JP2007251720A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】調査すべき対象物の像を含む画像から対象物の像以外の部分を容易に除去することができる対象物認識システムを提供する。
【解決手段】カメラ10の撮影レンズによって取得された複数の対象物の画像をファインダVF内に対象物の像とともに、焦点板に配置された複数のAFポイント21を表示させる。図示しない選択スイッチを押し、抽出画像Aを含む位置SのAFポイント21を光らせ、光らせたAFポイント21に最も近い抽出画像Aを複数の画像の中から選択する。
【選択図】図2

Description

この発明は対象物認識システムに関する。
植物や鳥等の名称等を調べるために、従来図鑑がよく用いられている。調べようとする対象の実物又は写真等の画像と図鑑に収録された図版とを比較対照することにより、対象物を図鑑中の図版から特定するのが一般的である。ところが、例えばデジタルカメラで調べようとする植物を撮影した場合、調べようとする植物以外のもの(例えば地面、植木鉢、他の種類の植物等)がノイズとして撮影画像中に含まれるため、対象物と図版との比較対照が困難になることがある。下記文献に記載された植物認識システムでは対象物を撮影するに際して、対象物の色と異なる色の紙等を対象物の背景となるように配置して、対象物の特定の困難さを解消している。
特開2002−203242号公報
しかし、実際には調査すべき対象物の実物の採取や対象物の存在する場所への立ち入りが規制されていることがあるため、対象物の色と異なる色の紙等を対象物の背景となるように配置することは必ずしも可能ではなく、対象物以外のノイズを排除できるとは限らなかった。また、色によって対象物以外のノイズを排除する処理は煩雑である。
この発明はこのような事情に鑑みてなされたもので、調査すべき対象物の像を含む画像から対象物の像以外の部分を容易に除去し、対象物の像を合理的に選択することができる対象物認識システムを提供することである。
上記課題を解決するため請求項1記載の発明は、撮影画面内に所定の配列で配置される複数の合焦用マークのうちの少なくとも1つの合焦用マークを選択する選択手段と、選択された前記合焦用マークの位置情報又は識別情報を記憶する記憶手段と、撮影の対象物に関する複数の情報のうちの少なくとも1つの情報を用いて前記対象物の画像から1つ又は複数の画像を抽出する第1の抽出手段と、前記第1の抽出手段によって前記複数の画像が抽出されたとき前記複数の画像の中から前記記憶手段に記憶された位置情報又は識別情報に基づいて少なくとも1つの画像を選択する第2の抽出手段とを備えていることを特徴とする。
請求項2記載の発明は、請求項1記載の対象物認識システムにおいて、前記第2の抽出手段は、前記選択手段によって選択された合焦用マークに最も近い画像を前記複数の画像の中から選択することを特徴とする。
請求項3記載の発明は、請求項1記載の対象物認識システムにおいて、前記第2の抽出手段は、前記選択手段によって選択された合焦用マークと前記撮影画面の中心とを結ぶ仮想直線に接触する画像を前記複数の画像の中から選択することを特徴とする。
請求項4記載の発明は、請求項1記載の対象物認識システムにおいて、前記第2の抽出手段は、前記選択手段によって選択された合焦用マークと前記撮影画面の中心とを含むほぼ矩形又は楕円形状の仮想領域と最も広い範囲で重なる画像を前記複数の画像の中から選択することを特徴とする。
請求項5記載の発明は、請求項1記載の対象物認識システムにおいて、前記第2の抽出手段は、前記選択手段によって選択された合焦用マークと前記撮影画面の中心とを含むほぼ矩形又は楕円形状の仮想領域が前記複数の画像に重なるとき、前記各画像に重なる前記仮想領域の割合が最も高い画像を前記複数の画像の中から選択することを特徴とする。
請求項6記載の発明は、請求項3〜5のいずれか1項記載の対象物認識システムにおいて、前記第2の抽出手段は、前記選択手段によって選択された合焦用マークと前記撮影画面の中心との間に重み付けを行って前記複数の画像に選択順位を付けることを特徴とする。
この発明によれば調査すべき対象物の像を含む画像から対象物の像以外の部分を容易に除去することができる。
以下、この発明の実施の形態を図面に基づいて説明する。
図1はこの発明の第1実施形態に係る対象物認識システムの構成を示すブロック図である。
対象物認識システムはカメラ10とAFポイント選択部(選択手段)20と記憶部(記憶手段)30と第1の抽出部(第1の抽出手段)40と第2の抽出部(第2の抽出手段)50とデータベース60と出力装置70と距離計測部80とを備えている。
カメラ10は例えば画像情報に基づいて花の名称その他の情報を検索可能なデジタル電子図鑑(対象物認識システム)の入力装置である。カメラ10は例えば一眼レフデジタルカメラである。カメラ10は対象物(例えば植物)を撮影し、対象物をRGB表色系に基づくデジタル画像を出力する。
カメラ10のファインダ(撮影画面)VF(図3参照)の図示しない焦点板には図示しないAFセンサの受光部に対応する複数のAFポイント(合焦用マーク)21が所定の配列で形成されている。AFポイント21は例えば焦点板に刻まれた四角形の枠である。
AFポイント選択部20は例えばカメラ10のボディに設けられたAFポイント選択スイッチである。AFポイント選択スイッチの選択操作によって例えばファインダVF内に表示された複数のAFポイント21のうちの少なくとも1つのAFポイント21が選択される。選択手段の他の例として、ファインダVFをのぞいたときの眼球の表面反射を検知し、反射光の反射方向を位置検出装置(図示せず)で検知することで、眼球がどのAFポイント21に向いているかでAFポイント21を選択する方法(視線検出方法)を採用してもよい。
第1の抽出部40は色分離部41と形状判定部42と特徴抽出部43とを有する。まず色分離部41で例えばLab変換を用いて色分離され、次に形状判定部42で例えば所定の閾値との比較によって形状分離され、最後に特徴抽出部43で対象物の画像から複数の画像を抽出する。特徴抽出部43は記憶部30を有する。記憶部30には選択されたAFポイント21の位置情報又は識別情報が記憶される。
第2の抽出部50は、第1の抽出部40によって抽出された複数の画像の中から記憶部30に記憶された位置情報又は識別情報に基づいて少なくとも1つの画像を選択する。
データベース60には対象物が属するカテゴリに含まれる種について、少なくとも同定すべき対象物の特徴量に対応する特徴量情報(例えば花の名称、科、特徴量(色、大きさ、形、花の分布情報、開花時期等)が登録されている。
出力装置は例えばCRTディスプレイやLCDパネルであり、第2の抽出部50で選択された対象物の画像や名称等を含む画像が表示される。
距離計測部80でカメラ10から対象物を含む画像内各距離が計測される。
次に、この発明の第1実施形態に係る対象物認識システムの画像の抽出方法を説明する。
図2はこの発明の第1実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図である。
ファインダVF内に複数のAFポイント21が所定の間隔で表示されている。
図2において、A、B、Cは抽出画像を示し、Sは選択されたAFポイント21の位置を示す画像である。
まず、カメラ10の撮影レンズによって複数の対象物を含む画像がファインダVF内に表示される。このとき、ファインダVFには対象物とともに、焦点板に配置された複数のAFポイント21が表示される。
次に、図示しないAFポイント選択スイッチを押し、位置SのAFポイント21を光らせ、光らせたAFポイント21に最も近い抽出画像Aを複数の画像の中から選択する。選択されたAFポイント21の位置情報等に基づいた(例えば選択されたAFポイント21に焦点を合わせた)対象物の画像が撮影される。
その後、選択された抽出画像Aに含まれる対象物の特徴量が特徴抽出部43で抽出される。第2の抽出部50でデータベース60からの特徴量による検索を行ない、特徴量に対応付けられたデータベース60から対象物の情報(例えば花の色、形状)を取得する。その情報は出力装置70に対象物の画像として表示される。
この実施形態によれば調査すべき対象物の像を含む画像から対象物の像以外の部分を容易に除去することができる。
図3はこの発明の第2実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図であり、第1実施形態と共通する部分には同一符号を付してその説明を省略する。
上記実施形態と同様に、ファインダVFに対象物の像とともに、焦点板に配置された複数のAFポイント21が表示された後、図示しないAFポイント選択スイッチを押し、位置SのAFポイント21を光らせる。光らせたAFポイント21とファインダVFの中心Oとを結ぶ仮想直線L1に接触する抽出画像Aを複数の抽出画像A、B、Cの中から選択する。
なお、選択される抽出画像が複数ある場合(仮想直線L1に接触する抽出画像が複数ある場合)、選択されたAFポイント21に最も近い一定面積以上を有する抽出画像が選択される。
その後、選択された抽出画像Aに含まれる対象物の特徴量が特徴抽出部43で抽出される。第2の抽出部50でデータベース60からの特徴量による検索を行ない、特徴量に対応付けられたデータベース60から対象物の情報(例えば花の色、形状)を取得する。その情報は出力装置70に対象物の画像として表示される。
この実施形態によれば第1実施形態と同様の効果を奏する。
図4はこの発明の第3実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図であり、第1実施形態と共通する部分には同一符号を付してその説明を省略する。
上記実施形態と同様に、ファインダVFに対象物の像とともに、焦点板に配置された複数のAFポイント21が表示された後、図示しないAFポイント選択スイッチを押し、位置SのAFポイント21を光らせる。光らせたAFポイント21とファインダVFの中心Oとを含むほぼ矩形の仮想領域R1と重なる抽出画像Aを複数の画像A、B、Cの中から選択する。
なお、矩形の仮想領域R1と重なる抽出画像が複数ある場合、矩形の仮想領域R1と最も広い範囲で重なる抽出画像が選択される。また、矩形の仮想領域R1は図示の大きさに限定されるものではなく、任意の大きさとすることができる。
その後、選択された抽出画像Aに含まれる対象物の特徴量が特徴抽出部43で抽出される。第2の抽出部50でデータベース60からの特徴量による検索を行ない、特徴量に対応付けられたデータベース60から対象物の情報(例えば花の色、形状)を取得する。その情報は出力装置70に対象物の画像として表示される。
この実施形態によれば第1実施形態と同様の効果を奏する。
図5はこの発明の第4実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図であり、第1実施形態と共通する部分には同一符号を付してその説明を省略する。
上記実施形態と同様に、ファインダVFに対象物の像とともに、焦点板に配置された複数のAFポイント21が表示された後、図示しないAFポイント選択スイッチを押し、位置SのAFポイント21を光らせる。光らせたAFポイント21とファインダVFの中心Oとを含むほぼ楕円形状の仮想領域R2と重なる抽出画像Aを複数の画像A、B、Cの中から選択する。なお、楕円形状の仮想領域R2は図示の大きさに限定されるものではなく、任意の大きさとすることができる。
その後、選択された抽出画像Aに含まれる対象物の特徴量が特徴抽出部43で抽出される。第2の抽出部50でデータベース60からの特徴量による検索を行ない、特徴量に対応付けられたデータベース60から対象物の情報(例えば花の色、形状)を取得する。その情報は出力装置70に対象物の画像として表示される。
この実施形態によれば第1実施形態と同様の効果を奏する。
図6はこの発明の第5実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図であり、第1実施形態と共通する部分には同一符号を付してその説明を省略する。
上記実施形態と同様に、ファインダVFに対象物の像とともに、焦点板に配置された複数のAFポイント21が表示された後、図示しないAFポイント選択スイッチを押し、位置SのAFポイント21を光らせる。光らせたAFポイント21とファインダVFの中心Oとを含むほぼ楕円形状の仮想領域R2と最も広い範囲で重なる抽出画像Aを複数の画像A、B、Cの中から選択する。
なお、楕円形状の仮想領域R2は図示の大きさに限定されるものではなく、任意の大きさとすることができる。また、仮想領域R2は矩形であってもよい。
その後、選択された抽出画像Aに含まれる対象物の特徴量が特徴抽出部43で抽出される。第2の抽出部50でデータベース60からの特徴量による検索を行ない、特徴量に対応付けられたデータベース60から対象物の情報(例えば花の色、形状)を取得する。その情報は出力装置70に対象物の画像として表示される。
この実施形態によれば第1実施形態と同様の効果を奏する。
なお、上記実施形態のように、複数のAFポイント21のうちの予め定められたAFポイント21とファインダVFの中心Oとを含むほぼ楕円形状(矩形)の仮想領域が複数の抽出画像A、B、Cと重なるとき、各画像A、B、Cと重なる仮想領域の割合が最も高い抽出画像を複数の画像A、B、Cの中から選択するようにしてもよい。
抽出画像Aの面積をAA、選択領域の面積をa、抽出画像Aの評価(画像Aに重なる選択領域の割合)をa/AAとし、抽出画像Bの面積をBB、選択領域の面積をb、抽出画像Bの評価(画像Bに重なる選択領域の割合)をb/BBとし、抽出画像Cの面積をCC、選択領域の面積をc、抽出画像Cの評価(画像Cに重なる選択領域の割合)をc/CCとしたとき、a/AA>b/BB>c/CCならば、選択される画像の順位はA>B>Cとなる。
また、複数のAFポイント21のうちの予め定められたAFポイント21とファインダVFの中心Oとの間に重み付けを行って複数の抽出画像A、B、Cに選択順位を付けてもよい。
例えば、定められたAFポイント21に1、ファインダVFの中心Oに0.3、AFポイント21とファインダVFの中心Oとの中間に0.2の重み付けを行った場合について説明する。
抽出画像Aの面積をAA、選択領域の面積をa、抽出画像Aの評価(画像Aの面積に重みを付けた場合の選択領域の割合)をa/AA*1とし、抽出画像Bの面積をBB、選択領域の面積をb、抽出画像Bの評価(画像Bの面積に重みを付けた場合の選択領域の割合)をb/BB*0.2とし、抽出画像Cの面積をCC、選択領域の面積をc、抽出画像Cの評価(画像Cの面積に重みを付けた場合の選択領域の割合)をc/CC*0.3としたとき、a/AA*1>c/CC*0.3>b/BB*0.2ならば、選択される画像の順位はA>C>Bとなる。
なお、重みをAFポイント21とファインダVFの中心Oとの間に連続的に付け、重みを連続的に変化させてもよいし、複数の重みをAFポイント21とファインダVFの中心Oとの間に等間隔に付け、重みを階段状に変化させるようにしてもよい。
図1はこの発明の第1実施形態に係る対象物認識システムの構成を示すブロック図である。 図2はこの発明の第1実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図である。 図3はこの発明の第2実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図である。 図4はこの発明の第3実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図である。 図5はこの発明の第4実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図である。 図6はこの発明の第5実施形態に係る対象物認識システムのカメラのファインダ内のAFポイントの配置を示す図である。
符号の説明
20:AFポイント選択部(選択手段)、21:AFポイント(合焦用マーク)、30:記憶部(記憶手段)、40:第1の抽出部(第1の抽出手段)、50:第2の抽出部(第2の抽出手段)、L1:仮想直線、R1、R2:仮想領域、VF:ファインダ(撮影画面)、O:中心。

Claims (6)

  1. 撮影画面内に所定の配列で配置される複数の合焦用マークのうちの少なくとも1つの合焦用マークを選択する選択手段と、
    選択された前記合焦用マークの位置情報又は識別情報を記憶する記憶手段と、
    撮影の対象物に関する複数の情報のうちの少なくとも1つの情報を用いて前記対象物の画像から1つ又は複数の画像を抽出する第1の抽出手段と、
    前記第1の抽出手段によって前記複数の画像が抽出されたとき前記複数の画像の中から前記記憶手段に記憶された位置情報又は識別情報に基づいて少なくとも1つの画像を選択する第2の抽出手段と
    を備えていることを特徴とする対象物認識システム。
  2. 前記第2の抽出手段は、前記選択手段によって選択された合焦用マークに最も近い画像を前記複数の画像の中から選択することを特徴とする請求項1記載の対象物認識システム。
  3. 前記第2の抽出手段は、前記選択手段によって選択された合焦用マークと前記撮影画面の中心とを結ぶ仮想直線に接触する画像を前記複数の画像の中から選択することを特徴とする請求項1記載の対象物認識システム。
  4. 前記第2の抽出手段は、前記選択手段によって選択された合焦用マークと前記撮影画面の中心とを含むほぼ矩形又は楕円形状の仮想領域と最も広い範囲で重なる画像を前記複数の画像の中から選択することを特徴とする請求項1記載の対象物認識システム。
  5. 前記第2の抽出手段は、前記選択手段によって選択された合焦用マークと前記撮影画面の中心とを含むほぼ矩形又は楕円形状の仮想領域が前記複数の画像に重なるとき、前記各画像に重なる前記仮想領域の割合が最も高い画像を前記複数の画像の中から選択することを特徴とする請求項1記載の対象物認識システム。
  6. 前記第2の抽出手段は、前記選択手段によって選択された合焦用マークと前記撮影画面の中心との間に重み付けを行って前記複数の画像に選択順位を付けることを特徴とする請求項3〜5のいずれか1項記載の対象物認識システム。
JP2006073979A 2006-03-17 2006-03-17 対象物認識システム Withdrawn JP2007251720A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006073979A JP2007251720A (ja) 2006-03-17 2006-03-17 対象物認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006073979A JP2007251720A (ja) 2006-03-17 2006-03-17 対象物認識システム

Publications (1)

Publication Number Publication Date
JP2007251720A true JP2007251720A (ja) 2007-09-27

Family

ID=38595527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006073979A Withdrawn JP2007251720A (ja) 2006-03-17 2006-03-17 対象物認識システム

Country Status (1)

Country Link
JP (1) JP2007251720A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080993A (ja) * 2007-09-25 2009-04-16 Panasonic Electric Works Co Ltd 面発光装置
WO2011049046A1 (ja) * 2009-10-20 2011-04-28 楽天株式会社 画像処理装置、画像処理方法、画像処理プログラム、および、記録媒体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080993A (ja) * 2007-09-25 2009-04-16 Panasonic Electric Works Co Ltd 面発光装置
WO2011049046A1 (ja) * 2009-10-20 2011-04-28 楽天株式会社 画像処理装置、画像処理方法、画像処理プログラム、および、記録媒体
JP2011090374A (ja) * 2009-10-20 2011-05-06 Rakuten Inc 画像処理装置、画像処理方法、および、画像処理プログラム
CN102656605A (zh) * 2009-10-20 2012-09-05 乐天株式会社 图像处理装置、图像处理方法、图像处理程序以及记录介质
US8660309B2 (en) 2009-10-20 2014-02-25 Rakuten, Inc. Image processing apparatus, image processing method, image processing program and recording medium

Similar Documents

Publication Publication Date Title
CN105052123B (zh) 摄像装置、构图辅助装置、构图辅助方法及存储介质
CN1604621B (zh) 摄像装置及其控制方法
CN101909156B (zh) 电子照相机及其图像处理方法
WO2015098177A1 (ja) 画像処理装置、プログラム、情報記憶媒体、及び画像処理方法
CN105230001A (zh) 图像处理设备、处理图像的方法、图像处理程序,以及成像设备
CN105027553B (zh) 图像处理装置、图像处理方法以及存储图像处理程序的存储介质
JP4831314B2 (ja) 対象物認識システム
JP2019174200A (ja) 情報探索システム及びプログラム
CN104641275A (zh) 成像控制装置、成像设备和成像控制装置执行的控制方法
CN106233283A (zh) 图像处理装置、通信系统以及通信方法和摄像装置
WO2014196097A1 (ja) 画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法
JP6594666B2 (ja) 撮像補助装置、撮像装置および撮像補助方法
JP5155266B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP2007251720A (ja) 対象物認識システム
KR20190010576A (ko) 정보 탐색 시스템 및 방법, 정보 탐색 프로그램
JP2007179389A (ja) 撮影装置
JPH10254903A (ja) 画像検索方法および装置
JP2011124896A (ja) 解析装置、撮像装置、サーバ装置及び解析システム
CN105637344B (zh) 图像处理设备、程序、存储介质和图像处理方法
JP5753514B2 (ja) 画像表示装置、およびコンピュータプログラム
JP5788781B2 (ja) 撮影対象検索システム
JP2007058630A (ja) 画像認識装置
WO2017208423A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2007213178A (ja) 対象物認識システム
US9706125B2 (en) Image capturing device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090602