JP5673624B2 - オブジェクト検索装置、方法、およびプログラム - Google Patents

オブジェクト検索装置、方法、およびプログラム Download PDF

Info

Publication number
JP5673624B2
JP5673624B2 JP2012163860A JP2012163860A JP5673624B2 JP 5673624 B2 JP5673624 B2 JP 5673624B2 JP 2012163860 A JP2012163860 A JP 2012163860A JP 2012163860 A JP2012163860 A JP 2012163860A JP 5673624 B2 JP5673624 B2 JP 5673624B2
Authority
JP
Japan
Prior art keywords
main object
image data
pixel
background
actual size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012163860A
Other languages
English (en)
Other versions
JP2014027355A5 (ja
JP2014027355A (ja
Inventor
道大 二瓶
道大 二瓶
松永 和久
和久 松永
雅行 広浜
雅行 広浜
浩一 中込
浩一 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012163860A priority Critical patent/JP5673624B2/ja
Priority to US13/926,835 priority patent/US20140029806A1/en
Priority to CN201310311243.2A priority patent/CN103577520A/zh
Publication of JP2014027355A publication Critical patent/JP2014027355A/ja
Publication of JP2014027355A5 publication Critical patent/JP2014027355A5/ja
Application granted granted Critical
Publication of JP5673624B2 publication Critical patent/JP5673624B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/22Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length at, near, or formed by the object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像した画像データから主要オブジェクトの領域を切り抜いてその主要オブジェクトの種類を検索する装置、方法、およびプログラムに関する。
野山や道端で見かけた花の名前を知りたくなることがある。そこで、撮影等により得た花のディジタル画像より、クラスタリング法を用いて対象物である花の画像を抽出し、その抽出された花の画像より得られる情報を特徴量とする。単数または複数の特徴量を求め、その求められた特徴量と、あらかじめデータベースに登録してある各種の花の特徴量とを統計的手法を用いて解析して花の種類を判別する技術が提案されている(例えば特許文献1に記載の技術)。
また、花などの主要オブジェクトを含む画像をGraph Cuts法を用いて主要オブジェクト領域と背景領域とを分割して主要オブジェクトの領域を切り抜く従来技術が知られている(例えば非特許文献1、特許文献2に記載の技術)。切抜きを行う場合,主要オブジェクトと背景の関係によりその境界が不明確な部分が存在する可能性があり,最適な領域分割を行う必要がある。そこで、この従来技術では、領域分割をエネルギーの最小化問題としてとらえ、その最小化手法を提案している。この従来技術では,領域分割に適合するようにグラフを作成し、そのグラフの最小カットを求めることにより、エネルギー関数の最小化を行う。この最小カットは、最大フローアルゴリズムを用いることにより、効率的な領域分割計算を実現している。
特開2002−203242号公報 特開2011−35636号公報
しかしながら、大きさが識別ポイントになっている複数の花などの主要オブジェクトを特定する場合、画像の特徴だけで検索を行った場合には、特徴データが同じになることがあり、違いを自動で識別し特定することができない場合があるという問題点を有していた。
本発明は、主要オブジェクトの検索精度を向上させることを目的とする。
前記課題を解決するため、本発明のオブジェクト検索装置は、画像データを取得する撮像手段と、前記画像データの各画素に付与する主要オブジェクトまたは背景を示す領域ラベル値を更新しながら、該領域ラベル値と前記各画素の画素値とに基づいて、前記主要オブジェクトらしさまたは前記背景らしさと隣接画素間の前記画素値の変化を評価するエネルギー関数の最小化処理により、前記画像データ内で前記主要オブジェクトと前記背景を領域分割して前記主要オブジェクトを切り抜く切抜き手段と、前記切抜き手段により切り抜かれた前記主要オブジェクトの実サイズを算出する実サイズ算出手段と、前記切抜き手段により切り抜かれた前記主要オブジェクトに対応する画像データに、前記実サイズの情報を付加して主要オブジェクトのデータベースにアクセスすることにより前記主要オブジェクトの種類を検索する検索手段と、を備え、前記切抜き手段は、前記背景に存在する前記主要オブジェクトと同じ色の前記画素値については、前記背景を示す領域ラベル値が更新されないようにすることを特徴とする。
本発明によれば、主要オブジェクトの検索精度を向上させることが可能となる。
本発明の一実施形態に係る複数画像を利用したオブジェクト検索装置のハードウェア構成例を示すブロック図である。 図1のデジタルカメラ101が実現する複数画像を利用したオブジェクト検索装置の機能的構成を示す機能ブロック図である。 本実施形態による複数画像を利用したオブジェクト検索処理の全体動作を示すフローチャートである。 本実施形態によるデプス(距離)算出処理の説明図である。 本実施形態による実サイズ算出処理の説明図である。 本実施形態によるグラフカット処理の全体動作を示すフローチャートである。 重み付き有向グラフの説明図である。 ヒストグラムθの説明図である。 uv(Xu ,Xv )の特性図である。 t−linkとn−linkを有するグラフと、領域ラベルベクトルXおよびグラフカットとの関係を、模式的に示した図である。 領域分割処理を示すフローチャートである。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。
図1は、本発明の一実施形態に係る複数画像を利用したオブジェクト検索装置を実現するデジタルカメラ101のハードウェア構成例を示すブロック図である。
デジタルカメラ101は、撮像レンズ102、補正レンズ103、レンズ駆動ブロック104、絞り兼用シャッタ105、CCD106、垂直ドライバ107、TG(Timing Generator:タイミング発生回路)108、ユニット回路109、DMAコントローラ(以下、DMAという)110、CPU(Central Processing Unit:中央演算処理装置)111、キー入力部112、メモリ113、DRAM(Dynamic Random Access Memory)114、通信部115、ブレ検出部117、DMA(Direct Memory Access)118、画像生成部119、DMA120、DMA121、表示部122、DMA123、圧縮伸張部124、DMA125、フラッシュメモリ126、バス127を備えている。
デジタルカメラ101の外部または内部には、花データベース116が備えられる。
花データベース116は、それがデジタルカメラ101の外部に設けられる場合、例えばインターネットによって接続されるサーバコンピュータ上に実装される。そして、デジタルカメラ101のCPU111が、通信部115を用いインターネットを経由して、サーバコンピュータ上の花データベース116にアクセスする。
花データベース116は、それがデジタルカメラ101の内部に設けられる場合、例えばDRAM114上に実装される。そして、CPU111が、DRAM114上の花データベース116にアクセスする。
撮像レンズ102は、複数のレンズ群から構成されるフォーカスレンズ、ズームレンズを含む。
なお、レンズ駆動ブロック104は、図示しない駆動回路を含み、駆動回路はCPU111からの制御信号に従ってフォーカスレンズ、ズームレンズをそれぞれ光軸方向に移動させる。
補正レンズ103は、手ぶれによる像のブレを補正するためのレンズであり、補正レンズ103には、レンズ駆動ブロック104が接続されている。
レンズ駆動ブロック104は、Yaw(ヨー)方向及びPitch(ピッチ)方向に補正レンズ103を移動させることにより手ぶれを補正する。このレンズ駆動ブロック104には、ヨー方向及びピッチ方向に補正レンズ103を移動させるモータ、及びそのモータを駆動させるモータドライバから構成されている。
絞り兼用シャッタ105は、図示しない駆動回路を含み、駆動回路はCPU111から送られてくる制御信号に従って絞り兼用シャッタ105を動作させる。この絞り兼用シャッタ105は、絞り、シャッタとして機能する。
絞りとは、CCD106に入射される光の量を制御する機構のことをいい、シャッタとは、CCD106に光を当てる時間を制御する機構のことをいい、CCD106に光を当てる時間(露光時間)は、シャッタ速度によって変わってくる。
露出量は、この絞り値(絞りの度合い)とシャッタ速度によって定められる。
CCD106は、垂直ドライバ7によって走査駆動され、一定周期毎に被写体像のRGB(赤緑青)値の各色の光の強さを光電変換して撮像信号としてユニット回路109に出力する。この垂直ドライバ107、ユニット回路109の動作タイミングはTG108を介してCPU111によって制御される。
ユニット回路109には、TG108が接続されており、CCD106から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログ信号をデジタル信号に変換するA/D(アナログ/デジタル)変換器から構成されており、CCD106によって得られた撮像信号は、ユニット回路109を経た後、DMA110によってベイヤーデータの状態でバッファメモリ(DRAM114)に記憶される。
CPU111は、AE(Automatic Exposure:自動露出)処理、AF(Automatic Focus:自動焦点)処理などを行う機能を有すると共に、デジタルカメラ101の各部を制御するワンチップマイコンである。
特に、本実施形態では、CPU111は、102から110の部分で構成される撮像手段に対して、被写体に対して光軸が移動した複数枚の画像データを取得させ、それらに基づいて、次の各処理を実行する。まず、CPU111は、被写体までの距離を算出する距離算出処理を実行する。次に、CPU111は、被写体中の主要オブジェクトの領域を切り抜くグラフカット(切り抜き)処理を実行する。続いて、CPU111は、撮像レンズ102から被写体までの距離と撮像レンズ102の焦点距離とから、主要オブジェクトの実サイズを算出する実サイズ算出処理を実行する。そして、CPU111は、実サイズの情報を付加して主要オブジェクトのデータベース116にアクセスすることにより、主要オブジェクトの種類を検索する検索処理を実行する。
キー入力部112は、半押し操作全押し操作可能なシャッタボタン、モード切替キー、十字キー、SETキー等の複数の操作キーや、タッチパネルを含み、ユーザのキー操作に応じた操作信号をCPU111に出力する。
メモリ113には、CPU111がデジタルカメラ101の各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU111は、それらの制御プログラムに従い動作する。
DRAM114は、CCD106によって撮像された画像データを一時記憶するバッファメモリとして使用されるとともに、CPU111のワーキングメモリとしても使用される。
ブレ検出部117は、図示しないジャイロセンサなどの角速度センサを備えており、撮影者の手振れ量を検出するものである。
なお、ブレ検出部117は、Yaw(ヨー)方向のブレ量を検出するジャイロセンサと、Pitch(ピッチ)方向のブレ量を検出するジャイロセンサとを備えている。
このブレ検出部117によって検出されたブレ量は、CPU111に送られる。
DMA118は、バッファメモリに記憶されたベイヤーデータの画像データを読み出して画像生成部119に出力するものである。
画像生成部119は、DMA118から送られてきた画像データに対して、画素補間処理、γ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)の生成も行なう。つまり、画像処理を行うる部分である。
DMA120は、画像生成部119で画像処理が行われた輝度色差信号の画像データ(YUVデータ)をバッファメモリに記憶させるものである。
DMA121は、バッファメモリに記憶されているYUVデータの画像データを表示部122に出力するものである。
表示部122は、カラーLCDとその駆動回路を含み、DMA121から出力された画像データの画像を表示させる。
DMA123は、バッファメモリに記憶されているYUVデータの画像データや圧縮された画像データを圧縮伸張部124に出力したり、圧縮伸張部124により圧縮された画像データや、伸張された画像データをバッファメモリに記憶させたりするものである。
圧縮伸張部124は、画像データの圧縮・伸張(例えば、JPEGやMPEG形式の圧縮・伸張)を行なう部分である。
DMA125は、バッファッメモリに記憶されている圧縮画像データを読み出してフラッシュメモリ126に記録させたり、フラッシュメモリ126に記録された圧縮画像データをバッファメモリに記憶させるものである。
図2は、図1のデジタルカメラ101が実現する複数画像を利用したオブジェクト検索装置の機能的構成を示す機能ブロック図である。
撮像手段201は、被写体206に対して光軸が移動した複数枚の画像データ207を取得する。この撮像手段201は例えば、光軸を移動させることにより手ぶれを補正する補正レンズを備え、その補正レンズの光軸を移動させながら複数枚の画像データ207を取得する。
距離算出手段202は、複数枚の画像データ207に基づいて、撮像手段201から被写体206までのデプス(距離)208を算出する。
切抜き手段203は、画像データ207のうちの例えば1枚から被写体206中の主要オブジェクト209の領域を切り抜く。この切抜き手段203は例えば、画像データ207の各画素に付与する主要オブジェクトまたは背景を示す領域ラベル値を更新しながら、その領域ラベル値と各画素の画素値とに基づいて、主要オブジェクトらしさまたは背景らしさと隣接画素間の画素値の変化を評価する例えばGraph Cuts法によるエネルギー関数の最小化処理により、画像データ207内で主要オブジェクトと背景を領域分割して主要オブジェクト209を切り抜く。
実サイズ算出手段204は、切り抜いた主要オブジェクト209の画像データ207上での大きさと撮像手段201から被写体206までのデプス(距離)208と撮像手段201の焦点距離210とから主要オブジェクト208の実サイズ211を算出する。
検索手段205は、実サイズ211の情報を付加して主要オブジェクトのデータベース116(図1参照)にアクセスすることにより主要オブジェクト209の種類を検索する。
図2に示されるデジタルカメラ101が実現する複数画像を利用したオブジェクト検索装置の機能構成により、被写体206に対して光軸が移動した複数枚の画像データ207を取得する撮像手段201からの情報に基づいて、主要オブジェクト209の実サイズ211を算出してその情報を付加することにより、主要オブジェクト209の検索精度を向上させることが可能となる。
図3は、本実施形態による複数画像を利用したオブジェクト検索処理の制御動作を示すフローチャートである。このフローチャートの処理は、図6および図11のフローチャートの処理とともに、図1のデジタルカメラ101内のCPU111が、メモリ113に記憶された制御プログラムを、DRAM114をワークメモリとして使用しながら実行する処理として実現される。
まず、図1の補正レンズ103がその光軸に対して垂直な方向に一方に寄せられて被写体206(図2参照)の撮影が実施され、画像データ207(図2参照)として画像Aが、図1のDRAM114に取得される(図3のステップS301)。同様に、図1の補正レンズ103がその光軸に対して垂直な方向に反対側に寄せられて被写体206の撮影が実施され、画像データ207として画像Bが、図1のDRAM114に取得される(図3のステップS302)。上述のステップS301とS302の処理は、図2の撮像手段201の機能を実現する。
次に、DRAM114に得られた画像Aおよび画像Bより、図1の撮像レンズ102のレンズ面から被写体206までのデプス(距離)dが算出される(図3のステップS303)。図4は、本実施形態によるデプス(距離)算出処理の説明図である。
図4において、説明を簡単にするために、補正レンズ103を含む撮像レンズ102がレンズ位置#1(複数で構成される撮像レンズ102の仮想的なレンズ面Hと光軸#1が交わる点)にあり、点光源Lがその光軸#1上にあった場合を考える。この場合、点光源Lは図1のCCD106上の撮像面Iの撮像点P1に像を結ぶ。そこから、レンズ駆動ブロック104を介して補正レンズ103が制御されることにより、補正レンズ103を含む撮像レンズ102のレンズ位置が、光軸#1に対応するレンズ位置#1から光軸#2に対応するレンズ位置#2(レンズ面Hと光軸#2が交わる点)に、距離Sだけシフト(移動)させられる。この結果、点光源Lは図1のCCD106上の撮像面Iの撮像点P2に像を結ぶ。このとき、点光源Lとレンズ位置#1およびレンズ位置#2を結ぶ三角形と、レンズ位置#2と撮像点P2と光軸#2が撮像面Iと交わる点を結ぶ三角形は相似形となる。このため、補正レンズ103の移動量Sとレンズ面Hから点光源Lが位置する物体面Oまでのデプス(距離)d(図2の距離208に対応する)との間には、次の関係が成り立つ。
従って、上記数1式より、次式によりデプス(距離)dを算出できる。
ここで、fはレンズ面Hから撮像Iまでの焦点距離210(図2参照)、Sは光軸#1から光軸#2までのシフト量、S’は光軸#2が撮像面Iと交わる点から撮像点P2までの距離である。なお、S’は図1のCCD106の撮像面I上の距離であるので、撮影された画像から算出する場合は、撮像面Iのドット数(pixel_count)に撮像素子の画素ピッチ寸法(size_per_pixel)を掛けたものとなる。すなわち、
である。
上述の計算式は、説明を簡単にするために、補正レンズ103を含む撮像レンズ102のレンズ位置#1が、最初点光源Lを通る光軸#1にあるものとして説明したが、任意の2点のレンズ位置に対しても、同様な比例関係が成り立つ。
以上の原理に基づいて実行される図3のステップS303が、図2の距離算出手段202の機能を実現する。
次に、グラフカット処理により、ステップS301で算出されている画像A(ステップS302で算出されている画像Bでもよい)から、グラフカット処理により主要オブジェクト209(図2参照)である花領域が切り出される(図3のステップS304)。この処理の詳細については、後述する。このステップS304の処理が、図2の切抜き手段203の機能を実現する。
次に、ステップS304で切り出されたCCD106(図1)の撮像面I上の主要オブジェクト209である花領域の幅hw’と、ステップS303で算出されたデプス(距離)dと、図1の補正レンズ103および撮像レンズ102を含むレンズ全体の焦点距離fより、花領域の実サイズhwが算出される(図3のステップS305)。図5は、本実施形態による実サイズ算出処理の説明図である。
図5より、焦点距離fとデプス(距離)d、およびCCD106(図1)の撮像面I上の主要オブジェクト209である花領域の幅hw’と主要オブジェクト209の実際の花の被写体の幅の実サイズhwは、三角形の相似形の関係より、次式の関係にある。
従って、実際の花の幅の実サイズhwは、次式により算出できる。
なお、hw’は図1のCCD106の撮像素子面I上の距離であるので、撮影された画像から算出する場合は、撮像面I上での主要オブジェクト209である花の領域の幅ドット数(flower_pixel_count)に撮像素子の画素ピッチ寸法(size_per_pixel)を掛けたものとなる。すなわち、
である。
以上の原理に基づいて実行される図3のステップS305が、図2の実サイズ算出手段204の機能を実現する。
以上のようにして主要オブジェクト209である花の実サイズ211=hwが算出された後、図3のステップS304で切り出された主要オブジェクト209である花領域の画像データから、画像特徴量が抽出される(図3のステップS306)。
次に、ステップS306で抽出された画像特徴量を用いて花識別器が構成され、図1の主要オブジェクトのデータベース116中の花の種類のデータベースが参照される。この結果、データベースから、花の種類の候補リストとして、花を識別する識別子(ID)のリストが取得される(図3のステップS307)。
次に、主要オブジェクトのデータベース116中の花の各識別子(ID)ごとに実サイズHWを記憶したデータベースが参照される。そして、IDn(n=1,2,・・・)ごとの実サイズHW(IDn.HW)が、ステップS305で算出された花の実サイズ211=hwと、一定の誤差の範囲内で一致するか否かが判定される(図3のステップS308)。
実サイズが一致せずステップS308の判定がNOならば、次のIDnについてステップS308の判定が繰り返される。
実サイズが一致してステップS308の判定がYESになると、そのIDnが、ステップS307で算出されている候補リスト中の花と同じ花であるか否かが判定される(図3のステップS309)。
ステップS309の判定がNOならば、次のIDnについてステップS308の判定が繰り返される。
ステップS309の判定がYESになると、その花が、検索結果として出力されて、花の検索処理を終了する。
以上のステップS306からS309までの一連の処理が、図2の検索手段205の機能を実現する。
以上の図3に示される複数画像を利用したオブジェクト検索処理により、主要オブジェクト209である花の実サイズ211を算出してその情報を付加することにより、主要オブジェクト209である花の検索精度を向上させることが可能となる。この場合、デジタルカメラ101に元々備わっている例えば手ぶれ補正用の補正レンズ103の制御によって、主要オブジェクト209の実サイズ211を効率的に算出することが可能となる。
図6は、図3のステップS304のグラフカット処理を示すフローチャートである。
まず、矩形枠決定処理が実行される(図6のステップS601)。この処理では、ユーザが、例えば図1の撮像手段102〜110にて撮像して得た画像データ207(図2参照)のうちの1枚(例えば図3の画像A)を、例えば図1の表示部122に表示させる。そして、その表示画像上で、認識したい物体(本実施形態では例えば花)が存在するおおよその領域に対して、例えばタッチパネル等の入力装置112を用いて、矩形枠を指定する。例えば、タッチパネル上での、指によるスライド動作である。
次に、画像範囲内の各画素に対して、主要オブジェクトと前記背景を領域分割する領域分割処理(グラフカット処理)が実行される(図6のステップS602)。この処理の詳細については、後述する。
一度領域分割処理が終了した後、収束判定が行われる(図6のステップS603)。この収束判定は、以下のいずれかが満たされたときに、YESの判定結果となる。
・繰り返し回数が一定以上になった
・前回主要オブジェクトとされた領域面積と今回主要オブジェクトとされた領域面積の差が一定以下
ステップS603の判定で収束せず、その判定がNOであった場合、前回の領域分割処理の状況に応じて、ユーザが指定した矩形枠内の後述するコスト関数gv (Xv )が、次のようにして修正されてデータ更新される(図6のステップS604)。ステップS602の領域分割処理によって主要オブジェクトと判定された領域のヒストグラムと、事前に用意されている後述するヒストグラムθ(c,0)が、カラー画素値cごとに混合(加算)される。これにより、新たな主要オブジェクトらしさを示すヒストグラムθ(c,0)が生成され、それに基づいて新たなコスト関数gv (Xv )が計算される(後述する数12式等を参照)。同様に、ステップS602の領域分割処理によって背景と判定された領域のヒストグラムと、事前に用意されている後述するヒストグラムθ(c,1)が、カラー画素値cごとに例えば一定割合で混合(加算)される。これにより、新たな背景らしさを示すヒストグラムθ(c,1)が生成され、それに基づいて新たなコスト関数gv (Xv )が計算される(後述する数13式等を参照)。
ステップS603の判定が収束し、その判定がYESになると、図6のフローチャートで示される領域分割処理は終了とし、現在得られている主要オブジェクト領域が最終結果である主要オブジェクト209(図2参照)として出力される。
以下に、図6のステップS602の領域分割処理について、説明する。
いま、
を、要素Xv が画像Vにおける画素vに対する領域ラベルを示す領域ラベルベクトルであるとする。この領域ラベルベクトルは、例えば、画素vが主要オブジェクト領域内にあれば要素Xv =0、背景領域内にあれば要素Xv =1となるバイナリベクトルである。すなわち、
である。
本実施形態において実行される領域分割処理は、画像Vにおいて、次式で定義されるエネルギー関数E(X)を最小にするような数7式の領域ラベルベクトルXを求める処理である。
エネルギー最小化処理が実行される結果、領域ラベルベクトルX上で領域ラベル値Xv =0となる画素vの集合として、主要オブジェクト領域が得られる。本実施形態の例でいえば、矩形枠内の花の領域である。なお、領域ラベルベクトルX上で領域ラベル値Xv =1となる画素vの集合が、背景領域(矩形枠外も含む)となる。
数9式のエネルギーを最小化するために、次式および図7で示される重み付き有向グラフ(以下「グラフ」と略す)を定義する。
ここで、Vはノード(node)、Eはエッジ(edge)である。このグラフが画像の領域分割に適用される場合は、画像の各画素が各ノードVに対応する。また、画素以外のノードとして、次式および図7中に示される、
と呼ばれる特殊なターミナルが追加される。このソースsを主要オブジェクト領域、シンクtを背景領域に対応付けて考える。また、エッジEは、ノードV間の関係を表現している。周辺の画素との関係を表したエッジEをn−link、各画素とソースs(主要オブジェクト領域に対応)またはシンクt(背景領域に対応)との関係を表したエッジEをt−linkと呼ぶ。
いま、ソースsと各画素に対応するノードとを結ぶ各t−linkを、各画素がどの程度主要オブジェクト領域らしいかを示す関係ととらえる。そして、その主要オブジェクト領域らしさを示すコスト値を、数9式第1項に対応付けて、
と定義する。ここで、θ(c、0)は、学習用に用意した複数枚(数百枚程度)の主要オブジェクト領域画像から算出したカラー画素値cごとのヒストグラム(出現回数)を示す関数データであり、例えば図8(a)に示されるように予め得られている。なお、θ(c、0)の全カラー画素値cにわたる総和は1になるように正規化されているものとする。また、I(v)は、入力画像の各画素vにおけるカラー(RGB)画素値である。実際には、カラー(RGB)画素値を輝度値に変換した値の場合もあるが、特に言及の必要がなければ、以下では説明の簡単のために「カラー(RGB)画素値」または「カラー画素値」と記載する。数12式において、θ(I(v)、0)の値が大きいほど、コスト値は小さくなる。これは、予め得られている主要オブジェクト領域のカラー画素値の中で出現回数が多いものほど、数12式で得られるコスト値が小さくなって、画素vが主要オブジェクト領域中の画素らしいことを意味し、数9式のエネルギー関数E(X)の値を押し下げる結果となる。
次に、シンクtと各画素に対応するノードとを結ぶ各t−linkを、各画素がどの程度背景領域らしいかを示す関係ととらえる。そして、その背景領域らしさを示すコスト値を、数9式第1項に対応付けて、
と定義する。ここで、θ(c、1)は、学習用に用意した複数枚(数百枚程度)の背景領域画像から算出したカラー画素値cごとのヒストグラム(出現度数)を示す関数データであり、例えば図8(b)に示されるように予め得られている。なお、θ(c、1)の全カラー画素値cにわたる総和は1になるように正規化されているものとする。I(v)は、数12式の場合と同様に、入力画像の各画素vにおけるカラー(RGB)画素値である。数12式において、θ(I(v)、1)の値が大きいほど、コスト値は小さくなる。これは、予め得られている背景領域のカラー画素値の中で出現回数が多いものほど、数13式で得られるコスト値が小さくなって、画素vが背景領域中の画素らしいことを意味し、数9式のエネルギー関数E(X)の値を押し下げる結果となる。
次に、各画素に対応するノードとその周辺画素との関係を示すn−linkのコスト値を、数9式第2項に対応付けて、
と定義する。ここで、dist(u,v)は、画素vとその周辺画素uのユークリッド距離を示しており、κは所定の係数である。また、I(u)およびI(v)は、入力画像の各画素uおよびvにおける各カラー(RGB)画素値である。実際には前述したように、カラー(RGB)画素値を輝度値に変換した値であってもよい。画素vおよびその周辺画素uの各領域ラベル値Xu およびXv が同一(Xu =Xv )となるように選択された場合における数14式のコスト値は0とされて、エネルギーE(X)の計算には影響しなくなる。一方、画素vとその周辺画素uの各領域ラベル値Xu およびXv が異なる(Xu ≠Xv )ように選択された場合における数14式のコスト値は、例えば図9に示される特性を有する関数特性となる。すなわち、画素vおよびその周辺画素uの各領域ラベル値Xu およびXv が異なっていて、かつ画素vおよびその周辺画素uのカラー画素値(輝度値)の差I(u)−I(v)が小さい場合には、数14式で得られるコスト値が大きくなる。この場合には、数9式のエネルギー関数E(X)の値が押し上げられる結果となる。言い換えれば、近傍画素間で、カラー画素値(輝度値)の差が小さい場合には、それらの画素の各領域ラベル値は、互いに異なるようには選択されない。すなわち、その場合には、近傍画素間では領域ラベル値はなるべく同じになって主要オブジェクト領域または背景領域はなるべく変化しないように、制御される。一方、画素vおよびその周辺画素uの各領域ラベル値Xu およびXv が異なっていて、かつ画素vおよびその周辺画素uのカラー画素値(輝度値)の差I(u)−I(v)が大きい場合には、数14式で得られるコスト値が小さくなる。この場合には、数9式のエネルギー関数E(X)の値が押し下げられる結果となる。言い換えれば、近傍画素間で、カラー画素値(輝度値)の差が大きい場合には、主要オブジェクト領域と背景領域の境界らしいことを意味し、画素vとその周辺画素uとで、領域ラベル値が異なる方向に制御される
以上の定義を用いて、入力画像の各画素vごとに、数12式によって、ソースsと各画素vとを結ぶt−linkのコスト値(主要オブジェクト領域らしさ)が算出される。また、数13式によって、シンクtと各画素vとを結ぶt−linkのコスト値(背景領域らしさ)が算出される。さらに、入力画像の各画素vごとに、数14式によって、画素vとその周辺例えば8方向の各8画素とを結ぶ8本のn−linkのコスト値(境界らしさ)が算出される。
そして、理論的には、数7式の領域ラベルベクトルXの全ての領域ラベル値の0または1の組合せごとに、各領域ラベル値に応じて上記数12式、数13式、および数14式の計算結果が選択されながら数9式のエネルギー関数E(X)が計算される。そして、全ての組合せの中でエネルギー関数E(X)の値が最小となる領域ラベルベクトルXを選択することにより、領域ラベルベクトルX上で領域ラベル値Xv =0となる画素vの集合として、主要オブジェクト領域を得ることができる。
しかし実際には、領域ラベルベクトルXの全ての領域ラベル値の0または1の組合せ数は、2の画素数乗通りあるため、現実的な時間でエネルギー関数E(X)の最小化処理を計算することができない。
そこで、Graph Cuts法では、次のようなアルゴリズムを実行することにより、エネルギー関数E(X)の最小化処理を現実的な時間で計算することを可能にする。
図10は、上述した数12式、数13式で定義されるt−linkと数14式で定義されるn−linkを有するグラフと、領域ラベルベクトルXおよびグラフカットとの関係を、模式的に示した図である。図10では、理解の容易化のために、画素vは一次元的に示されている。
数9式のエネルギー関数E(X)の第1項の計算で、領域ラベルベクトルX中の領域ラベル値が0となるべき主要オブジェクト領域中の画素では、数12式と数13式のうち、主要オブジェクト領域中の画素らしい場合により小さな値となる数12式のコスト値のほうが小さくなる。従って、ある画素において、ソースs側のt−linkが選択されシンクt側のt−linkがカットされて(図10の1002のケース)、数12式を用いて数9式のE(X)の第1項が計算された場合に、その計算結果が小さくなれば、その画素の領域ラベル値としては0が選択される。そして、そのグラフカット状態が採用される。計算結果が小さくならなければ、そのグラフカット状態は採用されず、他のリンクの探索およびグラフカットが試みられる。
逆に、領域ラベルベクトルX中の領域ラベル値が1となるべき背景領域中の画素では、数12式と数13式のうち、背景領域中の画素らしい場合により小さな値となる数13式のコスト値のほうが小さくなる。従って、ある画素において、シンクt側のt−linkが選択されソースs側のt−linkはカットされて(図10の1003のケース)、数13式を用いて数9式のE(X)の第1項が計算された場合に、その計算結果が小さくなれば、その画素の領域ラベル値としては1が選択される。そして、そのグラフカット状態が採用される。計算結果が小さくならなければ、そのグラフカット状態は採用されず、他のリンクの探索およびグラフカットが試みられる。
一方、数9式のエネルギー関数E(X)の第1項の計算に係る上記領域分割(グラフカット)処理により、領域ラベルベクトルX中の領域ラベル値が0または1で連続すべき主要オブジェクト領域内部または背景領域内部の画素間では、数14式のコスト値が0となる。従って、数14式の計算結果は、エネルギー関数E(X)の第2項のコスト値の計算には影響しない。また、その画素間のn−linkは、数14式がコスト値0を出力するように、カットされずに維持される。
ところが、エネルギー関数E(X)の第1項の計算に係る上記領域分割(グラフカット)処理により、近傍画素間で、領域ラベル値が0と1の間で変化した場合に、それらの画素間のカラー画素値(輝度値)の差が小さければ、数14式のコスト値が大きくなる。この結果、数9式のエネルギー関数E(X)の値が押し上げられる。このようなケースは、同一領域内で第1項の値による領域ラベル値の判定がたまたま反転するような場合に相当する。従って、このようなケースでは、エネルギー関数E(X)の値が大きくなって、そのような領域ラベル値の反転は選択されない結果となる。また、この場合には、数14式の計算結果が、上記結果を維持するように、それらの画素間のn−linkは、カットされずに維持される。
これに対して、エネルギー関数E(X)の第1項の計算に係る上記領域分割(グラフカット)処理により、近傍画素間で、領域ラベル値が0と1の間で変化した場合に、それらの画素間のカラー画素値(輝度値)の差が大きければ、数14式のコスト値が小さくなる。この結果、数9式のエネルギー関数E(X)の値が押し下げられる。このようなケースは、それらの画素部分が主要オブジェクト領域と背景領域の境界らしいことを意味している。従って、このようなケースでは、これらの画素間で領域ラベル値を異ならせて、主要オブジェクト領域と背景領域の境界を形成する方向に制御される。また、この場合には、境界の形成状態を安定化するために、それらの画素間のn−linkがカットされて、数9式の第2項のコスト値が0にされる(図10の1004のケース)。
以上の判定制御処理が、ソースsのノードを起点にして、順次各画素のノードをたどりながら繰り返されることにより、図10の1001で示されるようなグラフカットが実行され、エネルギー関数E(X)の最小化処理が現実的な時間で計算される。この処理の具体的な手法としては、例えば、非特許文献1に記載されている手法を採用することができる。
そして、各画素ごとに、ソースs側のt−linkが残っていれば、その画素の領域ラベル値として0、すなわち主要オブジェクト領域の画素を示すラベルが付与される。逆に、シンクt側のt−linkが残っていれば、その画素の領域ラベル値として1、すなわち背景領域の画素を示すラベルが付与される。最終的に、領域ラベル値が0となる画素の集合として、主要オブジェクト領域が得られる。
図11は、上述した動作原理に基づく図6のステップS602の領域分割処理を示すフローチャートである。
まず、1枚分の画像データ207から、カラー画素値I(V)が1つずつ読み込まれる(図11のステップS1101)。
次に、ステップS1101で読み込まれた画素が、ユーザによって指定された矩形枠内の画素であるか否かが判定される(図11のステップS1102)。
ステップS1102の判定がYESの場合には、前述した数12式、数13式、および数14式に基づいて、主要オブジェクト領域らしさを示すコスト値、背景領域らしさを示すコスト値、および境界らしさを示すコスト値が、それぞれ算出される(図11のステップS1103、S1104、およびS1105)。なお、θ(c、0)の初期値は、学習用に用意した複数枚(数百枚程度)の主要オブジェクトの領域から算出される。同様に、θ(c、1)の初期値は、学習用に用意した複数枚(数百枚程度)の背景の領域から算出される。
一方、ステップS1102の判定がNOの場合には、矩形の枠外には主要オブジェクト領域はないため、そこが主要オブジェクト領域と判定されないようにするために、主要オブジェクト領域らしさを示すコスト値gv (Xv )が、次式のように一定の大きな値Kとされる。
ここで、Kは、次式に示されるように、任意のピクセルの平滑化項の総和よりも大きい値を設定しておく(以上、図11のステップS1106)。
また、矩形の枠外が必ず背景領域と判定されるようにするために、背景領域らしさを示すコスト値gv (Xv )が、次式のように0とされる(図11のステップS1107)。
さらに、矩形の枠外は全て背景領域であるため、huv(Xu ,Xv )の値は0とされる(図11のステップS1108)。
以上の処理の後、画像内に処理すべき画素が残っているか否かが判定される(図11のステップS1109)。
処理すべき画素がありステップS1109の判定がYESならば、ステップS1101の処理に戻って、上記処理が繰り返される。
処理すべき画素がなくなりステップS1109の判定がNOになると、画像内の全ての画素について求まったコスト値を用いて、数9式のエネルギー関数E(X)が計算されながら、Graph Cutsアルゴリズムが実行され、主要オブジェクト209(図2参照)と背景が領域分割される(ステップS1110)。
以上のようにして、本実施形態では、背景領域内に存在する主要オブジェクト209の花等と同じ色の特定画素値cm については、背景のヒストグラムが更新されないように抑制される。これにより、次回以降、領域分割手段201における領域分割処理において、誤ったヒストグラムデータを用いて領域分割が行われることがなくなり、背景領域と主要オブジェクト領域とで誤認識をする割合が減少し、領域分割の精度を向上させることが可能となる。
以上の実施形態の説明では、主要オブジェクト209(図2)が花である場合を例に説明したが、主要オブジェクト209としては、花に限られず、様々なオブジェクトを採用することができる。
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
被写体に対して光軸が移動した複数枚の画像データを取得する撮像手段と、
前記複数枚の画像データに基づいて、前記撮像手段から前記被写体までの距離を算出する距離算出手段と、
前記画像データから前記被写体中の主要オブジェクトの領域を切り抜く切抜き手段と、
前記切り抜いた主要オブジェクトの前記画像データ上での大きさと前記撮像手段から被写体までの距離と前記撮像手段の焦点距離とから前記主要オブジェクトの実サイズを算出する実サイズ算出手段と、
前記実サイズの情報を付加して主要オブジェクトのデータベースにアクセスすることにより前記主要オブジェクトの種類を検索する検索手段と、
を備えることを特徴とする複数画像を利用したオブジェクト検索装置。
(付記2)
前記撮像手段は、光軸を移動させることにより手ぶれを補正する補正レンズを備え、該補正レンズの光軸を移動させながら前記複数枚の画像データを取得する、
ことを特徴とする付記1に記載の複数画像を利用したオブジェクト検索装置。
(付記3)
前記切抜き手段は、前記画像データの各画素に付与する前記主要オブジェクトまたは前記背景を示す領域ラベル値を更新しながら、該領域ラベル値と前記各画素の画素値とに基づいて、前記主要オブジェクトらしさまたは前記背景らしさと隣接画素間の前記画素値の変化を評価するエネルギー関数の最小化処理により、前記画像データ内で前記主要オブジェクトと前記背景を領域分割して前記主要オブジェクトを切り抜く、
ことを特徴とする付記1または2のいずれかに記載の複数画像を利用したオブジェクト検索装置。
(付記4)
前記切抜き手段は、Graph Cuts法により前記エネルギー関数の最小化処理を実行する、
ことを特徴とする付記3に記載の複数画像を利用したオブジェクト検索装置。
(付記5)
被写体に対して光軸が移動した複数枚の画像データを取得する撮像ステップと、
前記複数枚の画像データに基づいて、前記撮像手段から前記被写体までの距離を算出する距離算出ステップと、
前記画像データから前記被写体中の主要オブジェクトの領域を切り抜く切抜きステップと、
前記切り抜いた主要オブジェクトの前記画像データ上での大きさと前記撮像手段から被写体までの距離と前記撮像手段の焦点距離とから前記主要オブジェクトの実サイズを算出する実サイズ算出ステップと、
前記実サイズの情報を付加して主要オブジェクトのデータベースにアクセスすることにより前記主要オブジェクトの種類を検索する検索ステップと、
を備えることを特徴とする複数画像を利用したオブジェクト検索方法。
(付記6)
被写体に対して光軸が移動した複数枚の画像データを取得する撮像ステップと、
前記複数枚の画像データに基づいて、前記撮像手段から前記被写体までの距離を算出する距離算出ステップと、
前記画像データから前記被写体中の主要オブジェクトの領域を切り抜く切抜きステップと、
前記切り抜いた主要オブジェクトの前記画像データ上での大きさと前記撮像手段から被写体までの距離と前記撮像手段の焦点距離とから前記主要オブジェクトの実サイズを算出する実サイズ算出ステップと、
前記実サイズの情報を付加して主要オブジェクトのデータベースにアクセスすることにより前記主要オブジェクトの種類を検索する検索ステップと、
をコンピュータに実行させるためのプログラム。
101 デジタルカメラ
102 撮像レンズ
103 補正レンズ
104 レンズ駆動ブロック
105 絞り兼用シャッタ
106 CCD
107 垂直ドライバ
108 TG(Timing Generator:タイミング発生回路)
109 ユニット回路
110、118、120、121、123、125 DMA(Direct Memory Access)コントローラ
111 CPU(Central Processing Unit:中央演算処理装置)
112 キー入力部
113 メモリ
114 DRAM(Dynamic Random Access Memory)
115 通信部
116 主要オブジェクトのデータベース
117 ブレ検出部
119 画像生成部
122 表示部
124 圧縮伸張部
126 フラッシュメモリ
127 バス
201 撮像手段
202 距離算出手段
203 切抜き手段
204 実サイズ算出手段
205 検索手段
206 被写体
207 画像データ
208 距離
209 主要オブジェクト
210 焦点距離
211 実サイズ

Claims (5)

  1. 画像データを取得する撮像手段と、
    前記画像データの各画素に付与する主要オブジェクトまたは背景を示す領域ラベル値を更新しながら、該領域ラベル値と前記各画素の画素値とに基づいて、前記主要オブジェクトらしさまたは前記背景らしさと隣接画素間の前記画素値の変化を評価するエネルギー関数の最小化処理により、前記画像データ内で前記主要オブジェクトと前記背景を領域分割して前記主要オブジェクトを切り抜く切抜き手段と、
    前記切抜き手段により切り抜かれた前記主要オブジェクトの実サイズを算出する実サイズ算出手段と、
    前記切抜き手段により切り抜かれた前記主要オブジェクトに対応する画像データに、前記実サイズの情報を付加して主要オブジェクトのデータベースにアクセスすることにより前記主要オブジェクトの種類を検索する検索手段と、を備え、
    前記切抜き手段は、前記背景に存在する前記主要オブジェクトと同じ色の前記画素値については、前記背景を示す領域ラベル値が更新されないようにすることを特徴とするオブジェクト検索装置。
  2. 前記撮像手段は、被写体に対して光軸が移動した複数枚の画像データを取得し、
    前記複数枚の画像データに基づいて、前記撮像手段から前記被写体までの距離を算出する距離算出手段を更に備え、
    前記実サイズ算出手段は、前記複数枚の画像データの何れか一つの画像データに存在する被写体中の主要オブジェクトの前記画像データ上での大きさと前記撮像手段から被写体までの距離と前記撮像手段の焦点距離とから前記主要オブジェクトの実サイズを算出することを特徴とする請求項に記載のオブジェクト検索装置。
  3. 前記撮像手段は、光軸を移動させることにより手ぶれを補正する補正レンズを備え、該補正レンズの光軸を移動させながら前記複数枚の画像データを取得する、
    ことを特徴とする請求項に記載のオブジェクト検索装置。
  4. 画像データを取得する撮像ステップと、
    前記画像データの各画素に付与する主要オブジェクトまたは背景を示す領域ラベル値を更新しながら、該領域ラベル値と前記各画素の画素値とに基づいて、前記主要オブジェクトらしさまたは前記背景らしさと隣接画素間の前記画素値の変化を評価するエネルギー関数の最小化処理により、前記画像データ内で前記主要オブジェクトと前記背景を領域分割して前記主要オブジェクトを切り抜く切抜きステップと、
    前記切抜きステップにより切り抜かれた前記主要オブジェクトの実サイズを算出する実サイズ算出ステップと、
    前記切抜きステップにより切り抜かれた前記主要オブジェクトに対応する画像データに、前記実サイズの情報を付加して主要オブジェクトのデータベースにアクセスすることにより前記主要オブジェクトの種類を検索する検索ステップと、を含み、
    前記切抜きステップは、前記背景に存在する前記主要オブジェクトと同じ色の前記画素値については、前記背景を示す領域ラベル値が更新されないようにすることを特徴とするオブジェクト検索方法。
  5. オブジェクト検索を実行するコンピュータに、
    画像データを取得する撮像手段、
    前記画像データの各画素に付与する主要オブジェクトまたは背景を示す領域ラベル値を更新しながら、該領域ラベル値と前記各画素の画素値とに基づいて、前記主要オブジェクトらしさまたは前記背景らしさと隣接画素間の前記画素値の変化を評価するエネルギー関数の最小化処理により、前記画像データ内で前記主要オブジェクトと前記背景を領域分割して前記主要オブジェクトを切り抜く切抜き手段、
    前記切抜き手段により切り抜かれた前記主要オブジェクトの実サイズを算出する実サイズ算出手段、
    前記切抜き手段により切り抜かれた前記主要オブジェクトに対応する画像データに、前記実サイズの情報を付加して主要オブジェクトのデータベースにアクセスすることにより前記主要オブジェクトの種類を検索する検索手段、として実行させ、
    前記切抜き手段は、前記背景に存在する前記主要オブジェクトと同じ色の前記画素値については、前記背景を示す領域ラベル値が更新されないようにすることを特徴とするプログラム。
JP2012163860A 2012-07-24 2012-07-24 オブジェクト検索装置、方法、およびプログラム Expired - Fee Related JP5673624B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012163860A JP5673624B2 (ja) 2012-07-24 2012-07-24 オブジェクト検索装置、方法、およびプログラム
US13/926,835 US20140029806A1 (en) 2012-07-24 2013-06-25 Object searching apparatus, object searching method and computer-readable recording medium
CN201310311243.2A CN103577520A (zh) 2012-07-24 2013-07-23 目标检索装置、目标检索方法以及计算机可读取记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012163860A JP5673624B2 (ja) 2012-07-24 2012-07-24 オブジェクト検索装置、方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2014027355A JP2014027355A (ja) 2014-02-06
JP2014027355A5 JP2014027355A5 (ja) 2014-03-20
JP5673624B2 true JP5673624B2 (ja) 2015-02-18

Family

ID=49994932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012163860A Expired - Fee Related JP5673624B2 (ja) 2012-07-24 2012-07-24 オブジェクト検索装置、方法、およびプログラム

Country Status (3)

Country Link
US (1) US20140029806A1 (ja)
JP (1) JP5673624B2 (ja)
CN (1) CN103577520A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101531530B1 (ko) * 2014-12-31 2015-06-25 (주)스타넥스 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치
CN106373156A (zh) * 2015-07-20 2017-02-01 小米科技有限责任公司 通过图像确定空间参数的方法、装置及终端设备
JP6562869B2 (ja) * 2016-04-01 2019-08-21 富士フイルム株式会社 データ分類装置、方法およびプログラム
US10909371B2 (en) 2017-01-19 2021-02-02 Samsung Electronics Co., Ltd. System and method for contextual driven intelligence
EP3559804B1 (en) 2017-01-19 2024-03-06 Samsung Electronics Co., Ltd. Vision intelligence management for electronic devices
CN109472825B (zh) * 2018-10-16 2021-06-25 维沃移动通信有限公司 一种对象搜索方法及终端设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6973212B2 (en) * 2000-09-01 2005-12-06 Siemens Corporate Research, Inc. Graph cuts for binary segmentation of n-dimensional images from object and background seeds
JP2005108027A (ja) * 2003-09-30 2005-04-21 Ricoh Co Ltd 被写体情報提供方法及び被写体情報提供プログラム
JP2007058630A (ja) * 2005-08-25 2007-03-08 Seiko Epson Corp 画像認識装置
CN101479765B (zh) * 2006-06-23 2012-05-23 图象公司 对2d电影进行转换用于立体3d显示的方法和系统
JP5023750B2 (ja) * 2007-03-16 2012-09-12 株式会社ニコン 測距装置および撮像装置
JP5201203B2 (ja) * 2010-12-22 2013-06-05 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
CN103577520A (zh) 2014-02-12
JP2014027355A (ja) 2014-02-06
US20140029806A1 (en) 2014-01-30

Similar Documents

Publication Publication Date Title
CN110248096B (zh) 对焦方法和装置、电子设备、计算机可读存储介质
US10825146B2 (en) Method and device for image processing
JP6044134B2 (ja) 最適画像サイズによる画像領域分割装置、方法、およびプログラム
KR102277048B1 (ko) 미리보기 사진 블러링 방법 및 장치 및 저장 매체
JP5673624B2 (ja) オブジェクト検索装置、方法、およびプログラム
US20150043808A1 (en) Image processing apparatus, image processing method, and imaging apparatus
KR20170135855A (ko) 패닝 샷들의 자동 생성
JP2009212853A (ja) ホワイトバランス制御装置およびその制御方法並びに撮像装置
US20190166344A1 (en) Method and device for image white balance, storage medium and electronic equipment
US20120257091A1 (en) Digital image photographing apparatus and method of controlling the same
WO2018191070A2 (en) Optical flow and sensor input based background subtraction in video content
JP2015148532A (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP6198389B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
WO2019124289A1 (ja) 装置、制御方法および記憶媒体
KR100867049B1 (ko) 화상 보정 장치 및 화상 보정 방법
CN113610884A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP6486453B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2013042375A (ja) 撮像装置および距離情報取得方法
JP6044138B2 (ja) 画像領域分割装置、方法、およびプログラム
JP2017130106A (ja) データ処理装置、撮像装置、およびデータ処理方法
JP2014119725A (ja) 露出、焦点制御装置、方法、およびプログラム
JP6044130B2 (ja) 画像領域分割装置、方法、およびプログラム
JP5846144B2 (ja) 画像領域分割装置、方法、およびプログラム
EP4138384A2 (en) Imaging apparatus, imaging method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141215

R150 Certificate of patent or registration of utility model

Ref document number: 5673624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees