JP2007293757A - 画像抽出方法、画像抽出装置及び対象物認識システム - Google Patents
画像抽出方法、画像抽出装置及び対象物認識システム Download PDFInfo
- Publication number
- JP2007293757A JP2007293757A JP2006123265A JP2006123265A JP2007293757A JP 2007293757 A JP2007293757 A JP 2007293757A JP 2006123265 A JP2006123265 A JP 2006123265A JP 2006123265 A JP2006123265 A JP 2006123265A JP 2007293757 A JP2007293757 A JP 2007293757A
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinates
- coordinate
- contour
- selecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】撮像された画像から対象物の画像を正確に切り出すことができ、対象物の特徴量を正確に抽出することができる画像抽出方法、画像抽出装置及び対象物認識システムを提供する。
【解決手段】複数の画像を撮像装置で取得し、撮像装置で取得した画像を画像保存部に保存する。演算部で複数の画像を合焦位置間隔に並べて仮想3次元画像を形成し、演算部で選択された合焦画像を画像表示部40に表示する。画像表示部40に表示された画像から、対象物のエッジの座標をタッチペン45で選択する。選択された座標に隣接する座標を演算部で連続的に追跡し、選択された座標を結んで閉曲線を形成する。形成された閉曲線を画像表示部40に表示された画像に投影して表示する。表示された閉曲線内の画像だけを選択領域画像抽出部で抽出して、画像表示部40に表示する。
【選択図】図5
【解決手段】複数の画像を撮像装置で取得し、撮像装置で取得した画像を画像保存部に保存する。演算部で複数の画像を合焦位置間隔に並べて仮想3次元画像を形成し、演算部で選択された合焦画像を画像表示部40に表示する。画像表示部40に表示された画像から、対象物のエッジの座標をタッチペン45で選択する。選択された座標に隣接する座標を演算部で連続的に追跡し、選択された座標を結んで閉曲線を形成する。形成された閉曲線を画像表示部40に表示された画像に投影して表示する。表示された閉曲線内の画像だけを選択領域画像抽出部で抽出して、画像表示部40に表示する。
【選択図】図5
Description
この発明は画像抽出方法、画像抽出装置及び対象物認識システムに関する。
野山を散策したとき、いたるところで野草を見ることができる。目にした野草の名称を図鑑を利用して知ることができるが、図鑑は植物学的な分類に基づいて整理されているため、野草の名称を知ることは素人にとって容易でない。
そこで、素人でも野草の名称を容易に知ることができるようにするため、野山で野草の画像を撮像し、その画像から抽出された特徴量とデータベースに登録されている各種の植物の特徴量とを比較して野草の名称を検索する対象物認識システムが提案された。
この画像認識システムにおいては、撮像した画像から対象物である野草だけを背景から分離する必要がある。
下記の特許文献には、タッチセンサにより対象物の画像中の1つの画素(選択画素)を選択し、その選択画素の色相との差が所定値以内の画素からなる領域を前記画像から抽出するデータ検索装置が開示されている。
特開2005−100012号公報
しかし、上述のデータ検索装置では、撮像された画像から色情報に基づいて特定の領域を選択するため、その画像中に対象物と同じ色の複数の物体が存在する場合、対象物の画像を正確に切り出すことができないことがある。そのため、正確に対象物の特徴量を抽出することができない。
この発明はこのような事情に鑑みてなされたもので、その課題は、撮像された画像から対象物の画像を正確に切り出すことができ、対象物の特徴量を正確に抽出することができる画像抽出方法、画像抽出装置及び対象物認識システムを提供することである。
上記課題を解決するため請求項1記載の発明は、対象物の画像を撮像する撮像工程と、この撮像工程で撮像された画像のうち前記対象物の輪郭の少なくとも一つの座標を選択する選択工程と、この選択工程で選択された座標に隣接する座標のうちコントラストが最も高い座標を連続的に選択する極大座標選択工程と、この連続選択工程で選択された座標に基づいて前記対象物の輪郭を形成し、その輪郭内の画像を切り出す画像切出工程とを含むことを特徴とする。
請求項2記載の発明は、対象物の画像を撮像する撮像手段と、前記撮像手段によって撮像された画像のうち前記対象物の輪郭の少なくとも1つの座標を選択する選択手段と、前記選択手段によって選択された座標に隣接する座標のうちコントラストが最も高い座標を連続的に選択する極大座標選択手段と、前記極大座標選択手段によって連続的に選択された座標に基づいて前記対象物の輪郭を形成する輪郭形成手段と、前記輪郭形成手段により形成された輪郭内の画像を切り出す画像切出手段とを備えていることを特徴とする。
請求項3記載の発明は、合焦位置を所定間隔ずつ変えながら対象物の複数の画像を撮像する撮像工程と、この撮像工程で撮像された複数の画像をフォーカス方向へ等定間隔に配置して仮想3次元空間を形成する仮想3次元空間形成工程と、この仮想3次元空間形成工程で形成された仮想3次元空間のうち抽出する前記対象物の輪郭の少なくとも1つの座標を選択する選択工程と、この選択工程で選択された座標に3次元的に隣接する座標のうちコントラストが最も高い座標を連続的に選択する極大コントラスト特定工程と、この極大コントラスト特定工程で選択された座標を前記所定画像上の座標に変換して前記対象物の輪郭を形成し、その輪郭内の画像を切り出す工程とを含むことを特徴とする。
請求項4記載の発明は、合焦位置を所定間隔ずつ変えることができる結像光学系と、合焦位置を変えながら対象物の複数の画像を撮像する撮像手段と、前記撮像された複数の画像を取り込み、フォーカス方向へ所定間隔に配置して仮想3次元空間を形成する画像取込手段と、前記仮想3次元空間のうち抽出する前記対象物の輪郭の少なくとも1つの座標を選択する選択手段と、前記選択手段によって選択された座標に3次元的に隣接する座標のうちコントラストが最も高い座標を連続的に選択する極大コントラスト特定手段と、前記極大コントラスト特定手段で選択された座標を前記所定画像上の座標に変換する変換手段と、前記所定画像上の座標に基づいて前記対象物の輪郭を抽出して前記所定画像上の前記対象物の画像を切り出す画像切出手段とを備えていることを特徴とする。
請求項5記載の発明は、請求項2又は請求項4記載の画像抽出装置を備える対象物認識システムであって、前記画像切出手段で切り出された画像に基づいて前記対象物の特徴量を抽出する特徴量抽出手段と、前記対象物が属するカテゴリに含まれる複数の種について、少なくとも前記特徴量に対応する特徴量情報があらかじめ登録されたデータベースと、前記特徴量抽出手段で抽出された特徴量と前記データベースに登録された前記特徴量情報のうちの少なくとも1つの登録特徴量とを対比して前記対象物の属性情報を検索する検索手段とを備えていることを特徴とする。
この発明によれば、撮像された画像から対象物の画像を正確に切り出すことができ、対象物の特徴量を簡易かつ正確に抽出することができる。
以下、この発明の実施の形態を図面に基づいて説明する。
図1はこの発明の第1実施形態に係る画像抽出装置を備えている対象物認識システムの全体構成図である。
この対象物認識システムは、撮像装置(撮像手段)10と画像保存部20と演算部30と画像表示部40と特徴量抽出部(特徴量抽出手段)60と検索エンジン(検索手段)70とデータベース80と同定候補表示部90とを備えている。撮像装置10と画像保存部20と演算部30と画像表示部40とで画像抽出装置の一部が構成される。
撮像装置10は撮影レンズ(結像光学系)11と撮像部12とシャッタ駆動部13とレンズ駆動部14と撮像装置制御部15とを備えている。撮像部12はシャッタ12aと撮像素子12bとを備える。
撮影レンズ11は花等の対象物の光学像を撮像部12の受光面上に結像させる。なお、図1には撮影レンズ11は1つのレンズとして描かれているが、実際には複数のレンズで構成される。撮影レンズ11はレンズ駆動部14によって光軸Lに沿って移動し、焦点位置が可変である。レンズ駆動部14は撮像装置制御部15からの指示に基づいて撮影レンズ11を移動させる。
シャッタ12aはシャッタ駆動部13によって駆動される。シャッタ駆動部13は撮像装置制御部15からの指示に基づいてシャッタ12aを駆動する。
撮像素子12bは例えばCCD(Charge Coupled Device)である。CCDは複数の受光部を有し、撮影レンズ11によって結像された対象物の像によってそれぞれの受光部に蓄積された電荷を、アナログの電気信号として画像処理回路(図示せず)に出力する。
画像処理回路はCCDから受け取った、対象物のアナログ電気信号をR、G、Bの各成分に分解する。画像処理回路はR、G、Bの各成分に分解されたアナログ電気信号をデジタル信号に変換し、対象物の像を示すデジタルの画像データを画像保存部20に記憶させて各種の処理を行なった後、デジタル信号をアナログ信号に変換してアナログの画像データを画像表示部40に出力する。
画像表示部40は例えばCRT(Cathode−ray Tube)やデジタルカメラのLCD(Liquid Crystal Display)である。画像表示部40に対象物の画像が表示される。
特徴量抽出部60は演算部30によって切り出された画像から特徴量となる例えば色情報を抽出する。
データベース80には対象物が属するカテゴリに含まれる複数の種について、少なくとも同定すべき対象物の特徴量に対応する特徴量情報(花の名称、科、特徴量(色、大きさ、形、花の分布情報)、開花時期(結実時期)等)が登録されている。
検索エンジン70は特徴量抽出部60で抽出された例えば色情報(特徴量)とデータベース80に登録された色情報(特徴量)とを対比し、抽出された色情報と同じ色情報を有するデータを検索する。
同定候補表示部90には検索エンジン70で検索された情報、例えば画像や名称等を含む情報が表示される。
画像保存部20は撮影レンズ11の合焦位置を変化させながら撮像された複数の画像を一時的に保存する。
演算部30は、請求項2記載の極大座標選択手段、輪郭形成手段、画像切出手段、請求項4記載の画像取込手段、極大コントラスト特定手段、変換手段、画像切出手段に対応する。
次に、画像の切り出し操作を説明する。
撮像装置制御部15は撮影レンズ11を光軸Lに沿って駆動させながら対象物の複数の画像を撮像するようにレンズ駆動部14及びシャッター駆動部13に指示を出す。合焦位置を変化させながら撮像された複数の画像は、画像保存部20に一時的に保存される。演算部30は、画像保存部20に保存された複数の画像のうち、例えば対象物に最もピントが合った基準画像z0 (例えば画像中に複数の対象物がある場合被写体が複数ある場合、画像中央部の対象物に最もピントが合った画像z0 )を選択して画像表示部40に表示させる。検索者は、画像表示部40に表示された画像から抽出する対象物のエッジ(輪郭)の一点(x0,y0,z0 )(図3(a)の始点)を、タッチペン(選択手段)45(図5参照)を操作して選択する。なお、エッジの抽出を行うためには対象物が合焦範囲に入っていなければならない。また、選択手段として、タッチペン45に代え、画像表示部40の画面に表示されたポインタ等を操作する操作ボタンやトラッキングボールを用いてもよい。
コントラストによる対象物のエッジの抽出方法を説明する。
一般に、対象物のエッジ検出として、ソベル(Sobel )フィルタやプレウィット(prewitt )フィルタによる手法が知られている。ここでは一例としてソベルフィルタによる対象物のエッジ検出を図2に基づいて説明する。
図2(a)はソベルフィルタのオペレータを説明する図、図2(b)は検出対象の濃度値画像の座標を示す図である。
画像f(xi,yj)におけるフィルタ出力値は、横方向fx(xi,yj)、縦方向fy(xi,yj )についてそれぞれ1式及び2式に示す値になる。
fx(xi,yj) = f(i+1,j-1)+2f(i+1,j)+f(i+1,j+1)−{f(i-1,j-1)+2f(i-1,j)+f(i-1,j+1)}
・・・(1式)
fy(xi,yj) = f(i-1,j+1)+2f(i,j+1)+f(i+1,j+1)−{f(i-1,j-1)+2f(i,j-1)+f(i+1,j-1)}
・・・(2式)
x,y方向の画像の濃度値f’(xi,yj)は、1式及び2式で算出された横方向、縦方向の両方のフィルタ出力値を用いて、以下の3式で算出される。
・・・(1式)
fy(xi,yj) = f(i-1,j+1)+2f(i,j+1)+f(i+1,j+1)−{f(i-1,j-1)+2f(i,j-1)+f(i+1,j-1)}
・・・(2式)
x,y方向の画像の濃度値f’(xi,yj)は、1式及び2式で算出された横方向、縦方向の両方のフィルタ出力値を用いて、以下の3式で算出される。
f’(xi,yj) = {fx(xi,yj)2+fy(xi,yj)2}1/2 ・・・(3式)
また、f’(xi,yj)は4式で示されるコントラストの方向の情報を有している。
また、f’(xi,yj)は4式で示されるコントラストの方向の情報を有している。
Dir(xi,yj) = arctan(fx(xi,yj)/fy(xi,yj)) ・・・(4式)
この実施形態では、3式で求めたコントラストの大きさと、4式で求めたコントラストの方向に基づいて、画像の抽出を行う(後述)。
この実施形態では、3式で求めたコントラストの大きさと、4式で求めたコントラストの方向に基づいて、画像の抽出を行う(後述)。
更に、フォーカス方向のエッジ検出を図3、4に基づいて説明する。
図3(a),(b)はフォーカス方向(z方向)のエッジ検出を説明する図、図4(a)はエッジ部のコントラスト値及びコントラストベクトルの算出を説明する図、図4(b)はz方向のコントラスト値の挙動を示す図である。
合焦位置を変化させながら撮像された複数の画像は、画像保存部20に一時的に保存される。画像保存部20に保存された複数の合焦位置の異なる画像は、図3に示すように、その合焦位置に応じて、フォーカス方向に合焦位置間隔δzで重ねて配置される。複数の合焦位置の異なる画像によって仮想の3次元空間が形成される。合焦位置の変化はデフォーカス量であって連続的であるので、画像の各点において、画像間についてコントラスト値(1式、2式によって求められた値)を補間する。また、コントラスト方向(xy方向)も画像間について同様に補間を行う。補間した結果に基づいて、z方向についてコントラスト値を求め、3次元的に最もコントラスト値の高い座標(すなわちエッジ座標)を検出する。この結果、エッジに奥行きのある対象物についても、そのエッジを正確に検出して画像を切り出すことができる(図3(b)参照)。
抽出されたエッジは、明暗の変化や色の変化によって検索者に認識される。抽出されたエッジが意図した部位であれば、検索者は抽出開始ボタン(図5参照)を押す。抽出開始ボタンが押されると、抽出されたエッジ情報が演算部30(図1参照)に登録される。演算部30ではエッジ情報に基づいて対象物を抽出する演算が開始される。演算部30で実行される演算を図5、6に基づいて説明する。
図5はエッジの抽出手順を示す図、図6は画像を抽出する手順を示すフローチャートである。
まず、レンズ11を移動させて焦点位置を連続的に変化させながらシャッタ12aを切って対象物(図5では花)の複数の画像を撮像装置10で取得し、撮像装置10で取得した画像を画像保存部20に保存する(ステップ1)。
画像保存部20に保存された複数の画像に基づいて、演算部30で合焦位置間隔δzに並べられた仮想3次元画像を形成する(ステップ2)。
演算部30において前記複数の画像のうち対象物(被写体)が合焦している画像が抽出される(ステップ3)。対象物を中心に撮像が行われるので、通常、画像表示部40の画面の中心近傍に合焦している画像が抽出される。
抽出された画像を画像表示部40に表示する(ステップ4)(図5(a)参照)。
画像表示部40に表示された画像中の対象物の大きさが十分であるかどうかを判断し、十分であると判断された場合(Yes)、ステップ7に進む(ステップ5)。
十分でないと判断された場合(No)、画像表示部40の画面にズーム枠を表示して、画面中の対象物のズーミングを行う(ステップ6)(図5(b)参照)。
画像表示部40に表示された画像から、対象物のエッジ(又はその近傍の一部)の座標を選択する(ステップ7)。
ステップ7で選択された座標から最も近い極大コントラスト座標を、ステップ2で形成された仮想3次元画像空間から選択する(ステップ8)。ステップ7では、エッジが入り組んで正確に対象物のエッジを抽出できない場合が多いが、このステップ8によってエッジの一部(第1の極大コントラスト座標:始点)を正確に選択することができる。
タッチペン45で選択した座標が合焦位置から外れている場合であっても、仮想3次元画像からフォーカス方向に最もコントラストの高い座標が選択されるので、合焦位置(第1の極大コントラスト座標)を始点とすることができる(図5(c)参照)。
ステップ8で選択された座標に隣接する第2の極大コントラスト座標を仮想3次元画像から選択する(ステップ9)。
ステップ9で選択された座標に隣接する第3の極大コントラスト座標を選択する(ステップ10)。
ステップ10で選択された座標に隣接する第4の極大コントラスト座標を選択する(ステップ11)。以下、上記作業を第nの極大コントラスト座標を選択するまで(ステップ12に至るまで)繰り返す。
第1極大コントラスト座標(始点)からこの座標に重なる第n番目の極大座標(終点)まで極大コントラスト座標を追跡し、選択された第1〜第nの座標を結んだ閉曲線を形成する(ステップ12)。対象物のエッジが焦点方向に凹凸を有する場合には、この閉曲線は仮想3次元画像空間に立体的に分布することになる。
ステップ12で形成された閉曲線を画像表示部40に表示された対象物の画像に投影して表示する(ステップ13)(図5(d)参照)。
ステップ13で表示された閉曲線内の画像だけを演算部30で抽出して、画像表示部40に表示する(ステップ14)(図5(e)参照)。閉曲線内の画像だけを表示する代わりに閉曲線外の画像を暗転させるようにしてもよい。
画像表示部40に表示された画像から演算部30で抽出された色情報等の特徴量を特徴量抽出部60で抽出し、画像表示部40に表示する。抽出された特徴量に基づいて検索が実施される。特徴量抽出部60で抽出された例えば色情報(特徴量)とデータベース80に登録された色情報(特徴量)とを検索エンジン70で対比し、抽出された色情報と同じ色情報を有するデータを検索する。検索エンジン70で検索されたデータ、例えば画像や名称等を含む情報は同定候補表示部90に表示される。
なお、演算部30による画像の抽出では、対象物のエッジの1つのエッジポイントを選択し、そのエッジポイントに隣接する極大コントラスト座標を追跡したが、2つのエッジポイントを選択し、同時に2箇所から極大コントラスト座標を追跡するようにしてもよい。このようにすることにより、追跡時間を半分にすることができる。
対象物のエッジの3つ以上のエッジポイントを選択し、同時に3つ以上の箇所から極大コントラスト座標を選択することによって、閉曲線取得時間を更に短縮することができる。
また、例えば対象物が複雑な形状の花であり、花弁と花弁との間の境等のエッジが途切れるようなものである場合、複数のエッジポイントを選択することによって、極大コントラスト座標を追跡する方向が明確になるため、対象物のエッジを正確に抽出することができる。
更に、対象物が互いに連なる複数の部位から構成され、所定の部位のみのエッジを抽出したい場合、所定の部位だけが選択されるような始点、終点、及び極大点を追跡する方向とを選択し、選択した始点と終点とを直線等で結びつけることによって、所定の部位から外れる部分を排除することができる。
図7は画像を抽出する手順を示す他のフローチャートである。
このフローチャートのステップ1からステップ6までのプロセスは、図6のフローチャートと同様であるので、その説明を省略する。
(始点の選択)
ステップ6の後、対象物(抽出対象)の切り出し始点となるエッジ上の座標を選択する(ステップ7)。
ステップ6の後、対象物(抽出対象)の切り出し始点となるエッジ上の座標を選択する(ステップ7)。
ステップ7で選択された座標近傍の極大コントラスト点を仮想3次元画像空間から選択し、始点とする(ステップ8)。
(極大点追跡方向の選択)
ステップ8で選択した始点から、対象物のエッジ上をエッジの抽出を行う方向に進んだ任意の一点の座標を選択する(ステップ9)。
ステップ8で選択した始点から、対象物のエッジ上をエッジの抽出を行う方向に進んだ任意の一点の座標を選択する(ステップ9)。
ステップ9で選択された座標近傍の極大コントラスト点を仮想3次元画像空間から選択する(ステップ10)。
(終点の選択)
対象物の切り出し終点となるエッジ上の座標を選択する(ステップ11)。
対象物の切り出し終点となるエッジ上の座標を選択する(ステップ11)。
ステップ11で選択された画素近傍の極大コントラスト点を仮想3次元画像空間から選択し、終点とする(ステップ12)。
(閉曲線の形成)
始点(1i)及び、終点(1j)からそれぞれ、ステップ10で選択された極大点追跡方向に第2の極大コントラスト座標(2i)、(2j)を選択する(ステップ13)。
始点(1i)及び、終点(1j)からそれぞれ、ステップ10で選択された極大点追跡方向に第2の極大コントラスト座標(2i)、(2j)を選択する(ステップ13)。
ステップ13で選択された第2の極大コントラスト座標から極大点追跡方向に第3の極大コントラスト座標(3i)、(3j)を選択する。以下この作業を第nの極大コントラスト座標を選択するまで繰り返す(ステップ14)。
始点から追跡した第nの極大コントラスト点niと、終点から追跡した第nの極大コントラスト点njとが重なるまで極大コントラスト座標を追跡する(ステップ15)。
始点(1i)と終点(1j)とを直線等で結び付け、閉曲線を形成する(ステップ16)。対象物のエッジが焦点方向に凹凸を有する場合には、この閉曲線は仮想3次元画像空間に立体的に分布することになる。
ステップ16で形成された閉曲線を画像表示部40に表示された画像に投影して表示する(ステップ17)。
ステップ17で表示された閉曲線により画像を抽出して、画像表示部40に表示する(ステップ18)。
この実施形態によれば、合焦位置の異なる複数の画像を並べて3次元空間を形成し、この3次元空間における所定の画像の抽出物のエッジポイントを指定し、そのエッジポイントと連続する極大コントラスト座標を立体的に追跡するので、対象物が奥行きを有していても、撮像された画像から対象物の画像を正確に切り出すことができ、対象物の特徴量を簡易かつ正確に抽出することができる。
また、焦点位置を連続的に移動させて撮像した複数の画像から3次元空間を形成し、この仮想の3次元空間のうちの所定の対象物のエッジポイントを選択して、該エッジポイントの極大コントラスト点からこの極大コントラスト点に隣接する極大コントラスト点を追跡して対象物のエッジラインを捉えて対象物を切り出すので、任意の対象物の切り出しを実現することができる。
更に、始点、終点及び切り出し方向の一点をタッチペン等で選択することにより、対象物が1つの個体のうちの一部であっても(例えば、めしべのみ、一枚の葉のみ)、抽出することができる。例えば、花の抽出の場合、花は茎に続いているので、花だけを抽出するとき、連続する茎があると、花のみの抽出を行えない。このような場合であっても、図5のように、花と茎との境界部のエッジの一方を始点とし、もう一方を終点とし、抽出方向のエッジの一点(花のエッジ)を選択することにより、花のみを抽出することができる。
なお、凹凸の少ない単純な形状からなる構造物の抽出においては、エッジポイントを1点選択するだけで抽出を行うことができる。
図8はこの発明の第2実施形態に係る画像抽出装置を備えている対象物認識システムを用いたエッジの抽出手順を説明するための図である。
図8は対象物のエッジの全てが同じフォーカス面にある画像を示す。この場合、第1実施形態のように合焦位置を移動させて複数の画像を撮像する必要がない。抽出する対象物が合焦する位置で画像を取得し、その画像中の対象物のエッジを選択し、第1実施形態と同様の方法でエッジの抽出を行う。フォーカス方向の座標は考慮しない。
図8には図5と同様に対象物として花が示されている。特徴量の抽出のために、茎の部位を意図的に外して対象物の切り出しを行う。このとき、予め切り出しの始点(1i)と終点(1j)、並びに中間点(o1)を対象物のエッジ上から選択してエッジの切り出しを行っている(図8(c)参照)。
なお、図8(a),(b),(d),(e)は図5(a),(b),(d),(e)に対応する図であるので、その説明を省略した。
この実施形態によれば、合焦位置を変えながら複数の画像を連続的に取得する必要がなく、演算部30も3次元で処理を行う必要がないので、撮像された画像から対象物の画像を正確に切り出すことができ、第1実施形態より対象物の特徴量を簡易かつ正確に抽出することができる。
10:撮像装置(撮像手段)、11:撮影レンズ(結像光学系)、20:画像保存部、30:演算部、45:タッチペン(選択手段)、60:特徴量抽出部(特徴量抽出手段)、70:検索エンジン(検索手段)、80:データベース。
Claims (5)
- 対象物の画像を撮像する撮像工程と、
この撮像工程で撮像された画像のうち前記対象物の輪郭の少なくとも一つの座標を選択する選択工程と、
この選択工程で選択された座標に隣接する座標のうちコントラストが最も高い座標を連続的に選択する極大座標選択工程と、
この極大座標選択工程で選択された座標に基づいて前記対象物の輪郭を形成し、その輪郭内の画像を切り出す画像切出工程と
を含むことを特徴とする画像抽出方法。 - 対象物の画像を撮像する撮像手段と、
前記撮像手段によって撮像された画像のうち前記対象物の輪郭の少なくとも1つの座標を選択する選択手段と、
前記選択手段によって選択された座標に隣接する座標のうちコントラストが最も高い座標を連続的に選択する極大座標選択手段と、
前記極大座標選択手段によって連続的に選択された座標に基づいて前記対象物の輪郭を形成する輪郭形成手段と、
前記輪郭形成手段により形成された輪郭内の画像を切り出す画像切出手段と
を備えていることを特徴とする画像抽出装置。 - 合焦位置を所定間隔ずつ変えながら対象物の複数の画像を撮像する撮像工程と、
この撮像工程で撮像された複数の画像をフォーカス方向へ所定間隔に配置して仮想3次元空間を形成する仮想3次元空間形成工程と、
この仮想3次元空間形成工程で形成された仮想3次元空間のうち抽出する前記対象物の輪郭の少なくとも1つの座標を選択する選択工程と、
この選択工程で選択された座標に3次元的に隣接する座標のうちコントラストが最も高い座標を連続的に選択する極大コントラスト特定工程と、
この極大コントラスト特定工程で選択された座標を前記画像上の座標に変換して前記対象物の輪郭を形成し、その輪郭内の画像を切り出す工程と
を含むことを特徴とする画像抽出方法。 - 合焦位置を所定間隔ずつ変えることができる結像光学系と、
合焦位置を変えながら対象物の複数の画像を撮像する撮像手段と、
前記撮像された複数の画像を取り込み、フォーカス方向へ所定間隔に配置して仮想3次元空間を形成する画像取込手段と、
前記仮想3次元空間のうち抽出する前記対象物の輪郭の少なくとも1つの座標を選択する選択手段と、
前記選択手段によって選択された座標に3次元的に隣接する座標のうちコントラストが最も高い座標を連続的に選択する極大コントラスト特定手段と、
前記極大コントラスト特定手段で選択された座標を前記画像上の座標に変換する変換手段と、
前記所定画像上の座標に基づいて前記対象物の輪郭を抽出して前記画像上の前記対象物の画像を切り出す画像切出手段と
を備えていることを特徴とする画像抽出装置。 - 請求項2又は請求項4記載の画像抽出装置と、
前記画像切出手段で切り出された画像に基づいて前記対象物の特徴量を抽出する特徴量抽出手段と、
前記対象物が属するカテゴリに含まれる複数の種について、少なくとも前記特徴量に対応する特徴量情報があらかじめ登録されたデータベースと、
前記特徴量抽出手段で抽出された特徴量と前記データベースに登録された前記特徴量情報のうちの少なくとも1つの登録特徴量とを対比して前記対象物の属性情報を検索する検索手段と
を備えていることを特徴とする対象物認識システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006123265A JP2007293757A (ja) | 2006-04-27 | 2006-04-27 | 画像抽出方法、画像抽出装置及び対象物認識システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006123265A JP2007293757A (ja) | 2006-04-27 | 2006-04-27 | 画像抽出方法、画像抽出装置及び対象物認識システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007293757A true JP2007293757A (ja) | 2007-11-08 |
Family
ID=38764312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006123265A Pending JP2007293757A (ja) | 2006-04-27 | 2006-04-27 | 画像抽出方法、画像抽出装置及び対象物認識システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007293757A (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07225848A (ja) * | 1994-02-10 | 1995-08-22 | Fujitsu General Ltd | 画像抽出方法 |
JP2001229187A (ja) * | 2000-02-15 | 2001-08-24 | Masaaki Nagakura | 植物名検索システム |
JP2003161609A (ja) * | 2001-11-21 | 2003-06-06 | Mitsutoyo Corp | エッジ形状決定方法 |
-
2006
- 2006-04-27 JP JP2006123265A patent/JP2007293757A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07225848A (ja) * | 1994-02-10 | 1995-08-22 | Fujitsu General Ltd | 画像抽出方法 |
JP2001229187A (ja) * | 2000-02-15 | 2001-08-24 | Masaaki Nagakura | 植物名検索システム |
JP2003161609A (ja) * | 2001-11-21 | 2003-06-06 | Mitsutoyo Corp | エッジ形状決定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5178553B2 (ja) | 撮像装置 | |
US7606442B2 (en) | Image processing method and apparatus | |
JP5281972B2 (ja) | 撮像装置 | |
JP6320075B2 (ja) | 画像処理装置およびその制御方法 | |
WO2017080237A1 (zh) | 相机成像方法及相机装置 | |
US10599920B2 (en) | Automated digital magnifier system with hand gesture controls | |
BR102012020775B1 (pt) | aparelho de captura de imagem, aparelho de processamento de imagem e método para processamento de imagem para geração de informação auxiliar para a imagem capturada | |
JP5825172B2 (ja) | 画像判定装置、画像判定方法及び画像判定用コンピュータプログラム | |
US20200349187A1 (en) | Method and apparatus for data retrieval in a lightfield database | |
CN104641275B (zh) | 成像控制装置、成像设备和成像控制装置执行的控制方法 | |
JP4831314B2 (ja) | 対象物認識システム | |
JP6594666B2 (ja) | 撮像補助装置、撮像装置および撮像補助方法 | |
JP6429483B2 (ja) | 情報処理装置、撮像装置、情報処理システム、情報処理方法およびプログラム | |
CN106922181A (zh) | 方向感知自动聚焦 | |
CN110930437B (zh) | 目标跟踪方法和装置 | |
CN107076980A (zh) | 用于大视场显微扫描中嵌入图像的系统和方法 | |
CN105847658A (zh) | 一种多点对焦方法、装置及智能终端 | |
JP6563517B2 (ja) | 顕微鏡観察システム、顕微鏡観察方法、及び顕微鏡観察プログラム | |
JP4716266B2 (ja) | 画像処理装置、撮像装置及びそのプログラム | |
JPH10254903A (ja) | 画像検索方法および装置 | |
JP2007293757A (ja) | 画像抽出方法、画像抽出装置及び対象物認識システム | |
JP7034781B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2014116789A (ja) | 撮影装置、その制御方法及びプログラム | |
KR20180069312A (ko) | 라이트 필드 동영상을 이용한 물체 추적 방법 및 장치 | |
JP2007181020A (ja) | 撮影装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110726 |