JP2012118634A - 画像認識方法、画像認識装置及び撮像システム - Google Patents

画像認識方法、画像認識装置及び撮像システム Download PDF

Info

Publication number
JP2012118634A
JP2012118634A JP2010265741A JP2010265741A JP2012118634A JP 2012118634 A JP2012118634 A JP 2012118634A JP 2010265741 A JP2010265741 A JP 2010265741A JP 2010265741 A JP2010265741 A JP 2010265741A JP 2012118634 A JP2012118634 A JP 2012118634A
Authority
JP
Japan
Prior art keywords
search
area
search area
image
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010265741A
Other languages
English (en)
Inventor
Masao Ozawa
政夫 小澤
Kunihiro Imamura
邦博 今村
Shinji Kitamura
臣二 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010265741A priority Critical patent/JP2012118634A/ja
Publication of JP2012118634A publication Critical patent/JP2012118634A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】対象画像の探索処理に要する処理時間の削減効果を向上させる。
【解決手段】予め定められた対象物を表す対象画像を入力画像から抽出する画像認識方法は、対象画像を探索するための入力画像内の探索領域として予め設定された少なくとも1つの第1探索領域の数と、少なくとも1つの第1探索領域それぞれの大きさとの少なくとも1つを示す探索領域情報に基づいて、入力画像内の第2探索領域を設定する探索領域設定ステップ(S105)と、第2探索領域を探索することで、対象画像を抽出する探索ステップ(S106)とを含む。
【選択図】図7

Description

本発明は、対象画像を入力画像から抽出する画像認識方法、画像認識装置及び撮像システムに関する。
カメラを用いた画像認識技術には、顔検出、顔認証、動体検出などがあり、デジタルスチルカメラ、デジタルビデオカメラ、さらに、セキュリティ分野におけるカメラにおいても適用されている。
例えば、デジタルスチルカメラにおいて顔検出を行うことで、人物撮影において顔領域が最良となるようにホワイトバランス及びフォーカスをカメラが自動で設定することがなされている。これにより、撮影者は、細かなカメラの設定を行う手間を省くことができる。
カメラを用いた画像認識技術には、画像探索範囲を限定することで、所望の対象画像を抽出するのに要する処理時間を削減する技術が開示されている。例えば、特許文献1には、探索窓の大きさに基づいて顔存在領域及び入力画像の全領域を探索領域として設定し、設定した探索領域を探索することで、対象画像を抽出する技術が開示されている。このとき、顔存在領域は、固定的に設定された領域、又は、統計的手法で推定された領域である。これにより、常に入力画像の全領域を探索領域にする場合に比べて、画像認識に要する処理時間を削減することができる。
特開2007−265150号公報
しかしながら、上記従来技術には、対象画像の探索処理に要する処理時間の削減効果が不十分であるという課題がある。
特許文献1に記載の画像認識方法では、顔存在領域が、固定的に設定された領域、又は、統計的手法で推定された領域である。統計的手法で顔存在領域を推定するためには、事前学習が必要であり、この学習を行うためには、非常に多くのサンプル画像が必要である。サンプル画像の選定及び学習そのものに要する処理時間が長く、非常に多くの手間がかかる。
また、顔存在領域が、固定的に設定された領域及び統計的手法で推定された領域のいずれの場合であっても、当該顔存在領域(すなわち、入力画像の一部)に探索範囲を限定するために、あらゆる入力画像において探索範囲内に対象画像が存在することを保証できないという課題がある。さらに、探索範囲内に対象画像が存在しない場合は、入力画像の全領域を探索するように動作することから、探索に要する時間を一切削減できず、処理時間の削減効果が小さいという問題点がある。
そこで、本発明は、上記従来の問題点を解決するもので、対象画像の探索処理に要する処理時間の削減効果を向上させることができる画像認識方法、画像認識装置及び撮像システムを提供することを目的とする。
上記課題を解決するために、本発明の一態様に係る画像認識方法は、予め定められた対象物を表す対象画像を入力画像から抽出する画像認識方法であって、前記対象画像を探索するための前記入力画像内の探索領域として予め設定された少なくとも1つの第1探索領域の数と、前記少なくとも1つの第1探索領域それぞれの大きさとの少なくとも1つを示す探索領域情報に基づいて、前記入力画像内の第2探索領域を設定する探索領域設定ステップと、前記第2探索領域を探索することで、前記対象画像を抽出する探索ステップとを含む。
これにより、予め設定された第1探索領域の数及び大きさに基づいて、新たな探索領域である第2探索領域を設定するので、事前学習を行う必要もなく、対象画像の探索処理に要する処理時間の削減効果を向上させることができる。また、統計的手法を用いていないため、どのような入力画像が入力された場合であっても、適切に探索領域を設定することができる。
また、前記探索領域設定ステップでは、前記探索領域情報に基づいて、前記少なくとも1つの第1探索領域を探索した場合に要する第1処理時間と、前記第2探索領域の候補となる領域を探索した場合に要する第2処理時間とを推定し、前記第1処理時間が前記第2処理時間より短い場合は、前記少なくとも1つの第1探索領域を前記第2探索領域として設定し、前記第2処理時間が前記第1処理時間より短い場合は、前記第2探索領域の候補となる領域を前記第2探索領域として設定してもよい。
これにより、探索した場合に要する処理時間が短い探索領域を第2探索領域として設定するので、予め設定された第1探索領域を探索した場合に要する処理時間より短い処理時間で、対象画像の探索処理を行うことができる。
また、前記探索領域設定ステップでは、前記第1探索領域の数に応じて増加する第1時間と、前記第1探索領域の大きさに応じて増加する第2時間とを加算することで、前記第1処理時間を推定してもよい。
これにより、探索領域の数に応じて増加するオーバーヘッド時間などの時間と、探索領域の大きさに応じて増加する転送処理時間及び画像認識処理時間などの時間とを利用するので、適切な処理時間の領域を第2探索領域として設定することができる。
また、前記画像認識方法は、さらに、前記少なくとも1つの第1探索領域を初期設定する初期設定ステップを含み、前記探索領域設定ステップでは、前記初期設定ステップにおいて設定された少なくとも1つの第1探索領域に関する前記探索領域情報に基づいて、前記第2探索領域を設定してもよい。
これにより、入力画像に応じて適応的に第1探索領域を設定することができる。つまり、事前学習などは必要としないので、処理時間を削減することができる。
また、前記初期設定ステップでは、前記入力画像のうち予め定められた色を含む領域を、前記第1探索領域として初期設定してもよい。
これにより、対象物に応じて特徴的な色を含む領域を探索領域として設定することができるので、対象物を表す対象画像を適切に抽出することができる。
また、前記初期設定ステップでは、前記入力画像のうち肌色を含む領域を、前記第1探索領域として初期設定してもよい。
これにより、例えば、人物の顔などを表す画像を抽出することができる。
また、前記初期設定ステップでは、前記入力画像のうち動きが発生している領域を、前記第1探索領域として初期設定してもよい。
これにより、動きを有する対象物を表す画像を抽出することができる。
また、前記探索領域設定ステップでは、前記第1探索領域、又は、前記入力画像の全領域を、前記第2探索領域として設定してもよい。
これにより、第1探索領域を探索した場合より入力画像の全領域を探索した場合の方が、処理時間が短い場合は、入力画像の全領域を探索することになる。この場合、入力画像内に対象物が含まれている場合は、対象画像を必ず抽出することができる。
また、前記画像認識方法は、さらに、複数の前記第1探索領域が設定されている場合に、少なくとも2つの前記第1探索領域を含む領域である統合領域を、前記第2探索領域の候補となる領域として設定する統合領域設定ステップを含み、前記探索領域設定ステップでは、前記第1探索領域、前記統合領域、又は、前記入力画像の全領域を、前記第2探索領域として設定してもよい。
これにより、設定された第1探索領域を統合するので、所望の対象物を表す対象画像を抽出するのに要する時間をより削減することが可能になる。探索領域を探索するのに要する時間は、探索領域の数に応じて増加する時間と探索領域の面積に応じて増加する時間とを含んでいる。したがって、第1探索領域を統合することで、探索領域の数を減らすことが可能となり、結果的に、対象画像を抽出するのに要する時間を削減することができる。
また、前記統合領域設定ステップでは、前記少なくとも2つの第1探索領域を探索した場合に要する第3処理時間と、前記統合領域を探索した場合に要する第4処理時間とを推定し、前記第4処理時間が前記第3処理時間より短い場合に、前記統合領域を設定してもよい。
これにより、統合領域を探索した場合に要する処理時間が、予め定められた第1探索領域を探索した場合に要する処理時間より短い場合に統合領域を設定するので、対象画像を抽出するのに要する時間をより短くすることができる。
また、前記統合領域設定ステップでは、複数の前記第1探索領域の1つである対象第1探索領域と、当該対象第1探索領域を基点とする予め定められた範囲内に存在する他の第1探索領域と含む領域を、前記統合領域として設定してもよい。
これにより、所定の範囲内に含まれる少なくとも2つの第1探索領域を統合するので、例えば、近接する2つの第1探索領域を統合することができ、統合による面積の増加を抑制することができる。したがって、面積に応じて増加する時間の増加量を少なくすることができる。
また、前記統合領域設定ステップでは、前記対象第1探索領域と前記他の第1探索領域との縦及び横のそれぞれの長さの比率に応じて、前記統合領域を設定するか否かを判定してもよい。
例えば、前記統合領域設定ステップでは、前記対象第1探索領域の縦の長さと前記他の第1探索領域の縦の長さとの比率と、前記対象第1探索領域の横の長さと前記他の第1探索領域の横の長さとの比率とがそれぞれ、予め定められた範囲内である場合に、前記統合領域を設定してもよい。
これにより、例えば、縦と横の長さの比が似た領域同士を統合することができるので、統合による面積の増加を抑制することができる。
また、前記統合領域設定ステップでは、前記対象第1探索領域と前記他の第1探索領域との位置関係に基づいて、前記統合領域を設定するか否かを判定してもよい。
例えば、前記統合領域設定ステップでは、前記対象第1探索領域と前記他の第1探索領域とにおける左右方向の距離が上下方向の距離より長い場合、前記統合領域を設定してもよい。
例えば、前記統合領域設定ステップでは、前記対象第1探索領域と前記他の第1探索領域とにおける上下方向の距離が左右方向の距離より長い場合、前記統合領域を設定しなくてもよい。
これにより、例えば、近接する領域同士を統合することができるので、統合による面積の増加を抑制することができる。
また、前記探索ステップでは、パターンマッチングを行うことで、前記第2探索領域内に前記対象画像が含まれるか否かを判定し、前記対象画像が含まれている場合に、当該対象画像を抽出してもよい。
なお、本発明は、画像認識方法として実現できるだけではなく、当該画像認識方法に含まれる処理ステップを実行する処理部を備える画像認識装置として実現することもできる。例えば、本発明の一態様に係る画像認識装置は、予め定められた対象物を表す対象画像を入力画像から抽出する画像認識装置であって、前記対象画像を探索するための前記入力画像内の探索領域として予め設定された少なくとも1つの第1探索領域の数と、前記少なくとも1つの第1探索領域それぞれの大きさとの少なくとも1つを示す探索領域情報に基づいて、前記入力画像内の第2探索領域を設定する探索領域設定部と、前記第2探索領域を探索することで、前記対象画像を抽出する探索部とを備える。
これにより、予め設定された第1探索領域の数及び大きさに基づいて、新たな探索領域である第2探索領域を設定するので、事前学習を行う必要もなく、対象画像の探索処理に要する処理時間の削減効果を向上させることができる。また、統計的手法を用いていないため、どのような入力画像が入力された場合であっても、適切に探索領域を設定することができる。
また、本発明は、上記の画像認識装置を備える撮像システムとして実現することもできる。例えば、本発明の一態様に係る撮像システムは、上記の画像認識装置と、光を結像する光学系と、前記光学系によって結像された光を、前記入力画像を示す画像信号に変換するセンサー部と、を備える。
これにより、例えば、顔検出、動き検出機能を備えた撮像システムを実現することができる。
また、前記撮像システムは、さらに、前記画像認識装置の動作を制御するシステム制御部を備え、前記システム制御部は、前記画像信号の画素値が予め定められた所定の範囲外である場合に、前記画像認識装置の動作を停止してもよい。
これにより、入力画像が白飛びしている場合、又は、黒潰れしている場合などの入力画像が適切でない場合に画像認識処理を停止させることができるので、消費電力の低減、及び、処理負荷を低減することができる。
また、本発明に係る画像認識方法に含まれる処理ステップをコンピュータに実行させるプログラムとして実現してもよい。さらに、当該プログラムを記録したコンピュータ読み取り可能なCD−ROM(Compact Disc−Read Only Memory)などの記録媒体、並びに、当該プログラムを示す情報、データ又は信号として実現してもよい。そして、それらプログラム、情報、データ及び信号は、インターネットなどの通信ネットワークを介して配信してもよい。
本発明によれば、対象画像の探索処理に要する処理時間の削減効果を向上させることができる。
本発明の実施の形態1に係る画像認識装置の構成の一例を示すブロック図である。 本発明の実施の形態1に係る第1探索領域の設定の一例を示す図である。 本発明の実施の形態1に係る探索領域情報の一例を示す図である。 本発明の実施の形態1に係る画像処理装置の構成の一例を示すブロック図である。 本発明の実施の形態1に係る入力画像の全領域を探索した場合のタイミングチャートの一例を示す図である。 本発明の実施の形態1に係る第1探索領域を探索した場合のタイミングチャートの一例を示す図である。 本発明の実施の形態1に係る画像認識方法の一例を示すフローチャートである。 本発明の実施の形態2に係る画像認識装置の構成の一例を示すブロック図である。 本発明の実施の形態2に係る探索領域の統合の判定の一例を示す図である。 本発明の実施の形態2に係る探索領域の統合の一例を示す図である。 本発明の実施の形態2に係る統合された探索領域情報の一例を示す図である。 本発明の実施の形態2に係る統合された探索領域を探索した場合のタイミングチャートの一例を示す図である。 本発明の実施の形態2に係る画像認識方法の一例を示すフローチャートである。 本発明の実施の形態3に係るカメラシステムの構成の一例を示すブロック図である。 本発明の実施の形態3に係る再生画像の表示の一例を示す図である。
以下、図面を参照して本発明の実施の形態について説明する。以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(実施の形態1)
本発明の実施の形態1に係る画像認識方法は、予め定められた対象物を表す対象画像を入力画像から抽出する画像認識方法である。画像認識方法では、対象画像を検索するための入力画像内の探索領域として予め設定された少なくとも1つの第1探索領域の数と、当該少なくとも1つの第1探索領域それぞれの大きさとの少なくとも1つを示す探索領域情報に基づいて、入力画像内の第2探索領域を設定し、設定した第2探索領域を探索することで、対象画像を抽出することを特徴とする。
まず、本発明の実施の形態1に係る画像認識方法を行う画像認識装置100の構成を説明する。図1は、本発明の実施の形態1に係る画像認識装置100の構成の一例を示すブロック図である。
本発明の実施の形態1に係る画像認識装置100は、予め定められた対象物を表す対象画像を入力画像から抽出する。図1に示すように、画像認識装置100は、画像入力部101と、探索領域初期設定部102と、探索領域情報抽出部103と、探索領域設定部104と、画像認識判定部105とを備える。画像認識装置100には、入力画像111が入力され、画像認識装置100は、画像認識結果112を出力する。
画像入力部101は、画像認識装置100の外部から入力画像111の入力を受け付ける。ここで入力画像111は、例えば、YUV(YCbCr)、RGB、HSVなどの色空間情報によって示される画像データである。画像入力部101に入力された入力画像111は、探索領域初期設定部102及び探索領域設定部104へ出力される。
探索領域初期設定部102は、対象画像を探索するための探索領域として、入力画像111内の少なくとも1つの第1探索領域を初期設定する。例えば、探索領域初期設定部102は、入力画像111の画像特徴量に基づいて少なくとも1つの第1探索領域を設定する。具体的には、探索領域初期設定部102は、画像入力部101から出力された入力画像111中に、画像認識を行うための探索領域を決定し、決定した探索領域を第1探索領域として設定する。例えば、探索領域初期設定部102は、決定した探索領域の左上アドレスと、探索領域の縦と横の長さとによって、第1探索領域を設定してもよい。
画像特徴量は、例えば、入力画像111の画素値(輝度値又は色相値)、又は、入力画像111の動き量などである。探索領域初期設定部102は、予め定められたしきい値で特定される範囲の色相値を含む領域を第1探索領域としてもよい。具体的には、予め定められたしきい値で特定される範囲の色相値は、対象物の色相値である。例えば、対象物として人の顔を表す領域を抽出する場合には、予め定められたしきい値で特定される範囲の色相値は、肌色の色相値である。すなわち、探索領域初期設定部102は、入力画像111のうち肌色を含む領域を、第1探索領域として設定してもよい。このときの肌色は、例えば、種々の民族集団に対応する複数の肌色である。
また、探索領域初期設定部102は、入力画像111のうち所定のしきい値以上の動きが発生している領域を第1探索領域として設定してもよい。動きは、例えば、時間的に異なる2枚の入力画像(例えば、連続する2枚の入力画像)の同じ位置の画素の差分値に基づいて、動きが発生しているか否かを判定する。2枚の入力画像の同じ位置の画素の差分値は、式1によって示される。
(式1)
差分値=入力された画像1のアドレス(縦、横)の画素値
− 入力された画像2のアドレス(縦、横)の画素値
式1によって示される差分値が、予め定められたしきい値で特定される範囲内である場合、探索領域初期設定部102は、その画素には動きが発生しているとみなして、当該画素を含む領域を第1探索領域として設定してもよい。なお、第1探索領域の設定方法は、これらに限定されるものではない。
図2は、本発明の実施の形態1に係る第1探索領域の設定の一例を示す図である。
探索領域初期設定部102は、入力画像201の領域内において、例えば、第1探索領域202a〜202dを設定する。図2では、一例として、探索領域202a及び探索領域202cは、肌色を検出した領域を示している。また、探索領域202b及び探索領域202dは、動きが検出された領域(動き領域)を示している。なお、動き領域中に示す破線の矢印は、動き量とその方向とを示している。
一方、第1探索領域を設定する際、探索領域初期設定部102は、複数の第1探索領域同士が重なるように設定してもよく、任意に設定可能である。探索領域初期設定部102によって設定された第1探索領域の情報は、探索領域情報抽出部103へ出力される。
探索領域情報抽出部103は、探索領域初期設定部102によって設定された全ての第1探索領域について、探索領域の数、探索領域の各々の面積(例えば、各々の探索領域に含まれる画素数)及び探索領域の縦横の長さを示す探索領域情報を抽出する。なお、抽出される探索領域情報は、上述された項目に限定されず、第1探索領域に係わる情報であればよく、例えば、第1探索領域の数、位置及び大きさを示す情報であればよい。
図3は、本発明の実施の形態1に係る第1探索領域の各々から抽出した探索領域情報の一例を示す図である。図3に示す例では、第1探索領域の数と、第1探索領域それぞれについての位置(領域の左上のアドレス)、縦及び横の長さ、並びに、面積とを示す情報を、探索領域情報抽出部103は探索領域情報として抽出する。抽出された探索領域情報は、探索領域設定部104へ出力される。
探索領域設定部104は、探索領域情報に基づいて、入力画像111内の第2探索領域を設定する。例えば、探索領域設定部104は、第1探索領域、又は、入力画像111の全領域を、第2探索領域として設定する。
具体的には、探索領域設定部104は、探索領域情報抽出部103から出力される各々の第1探索領域に係る種々の情報を基に、探索領域初期設定部102によって設定された第1探索領域の設定を改めるか否かの判定を行う。設定を改める場合は、探索領域設定部104は、新たな探索領域を第2探索領域として設定する。
つまり、探索領域設定部104は、対象画像を探索するための探索領域の再設定を行う。言い換えると、探索領域設定部104は、探索領域として既に設定されている第1探索領域を、第2探索領域に設定しなおす。ただし、後述するように、第2探索領域は、第1探索領域と一致する場合は存在する。なお、第2探索領域の設定の具体例については、後で説明する。
画像認識判定部105は、探索領域設定部104によって設定された第2探索領域を探索することで、対象物を表す対象画像を抽出する。具体的には、画像認識判定部105は、第2探索領域が所望の対象物を含むか否かの判定を行う。判定結果は、画像認識結果112として画像認識装置100から出力される。
画像認識結果112は、例えば、第2探索領域に対象画像が含まれているか否かを示す情報である。また、画像認識結果112は、第2探索領域に対象画像が含まれていることを示す場合、当該第2探索領域の位置及び大きさを示す情報を含んでいる。
ここで、探索領域設定部104による再設定の要否を判定する判断基準について、図4から図6を用いて説明する。図4は、本発明の実施の形態1に係る画像認識装置100を含む画像処理装置300の構成の一例を示すブロック図である。
画像処理装置300は、画像認識装置100と、CPU(Central Processing Unit)301と、DMAC(Direct Memory Access Controller)302と、共有メモリ303とを備える。また、画像認識装置100は、図1に示す構成に加えて、図4に示すようにメモリ304を備える。
CPU301は、入力画像に対して画像認識を行う場合、画像認識装置100に画像認識実行の命令を発行すると共に、DMAC302に対して、共有メモリ303から画像認識に必要とされる画像情報をメモリ304へDMA転送するよう命令を発行する。画像認識装置100は、メモリ304に格納された画像情報について順次、画像認識を実行する。
DMAC302は、共有メモリ303へのメモリアクセスを制御する。DMAC302は、CPU301によって発行される命令に基づいて、共有メモリ303からデータの読み出し、及び、共有メモリ303へデータの書き込みを行う。例えば、DMAC302は、画像認識処理の対象となる入力画像を、共有メモリ303からメモリ304に転送する。なお、DMAC302に代わる代替手段を用いてもよく、例えば、CPU301を用いたデータ転送により機能を実現してもよい。
共有メモリ303は、入力画像を格納するためのメモリである。なお、共有メモリ303は、SDカードなどの画像処理装置300に着脱可能な記録媒体でもよい。
画像認識装置100は、CPU301によって発行された画像認識実行の命令を受けた場合、メモリ304に格納された入力画像を読み出して、画像認識を実行する。
図5は、本発明の実施の形態1に係る入力画像の全領域を探索した場合のタイミングチャートの一例を示す図である。
オーバーヘッド時間T101は、CPU301がDMAC302へDMA転送の命令を発行してDMA転送が開始されるまでに必要とされる処理時間である。オーバーヘッド時間は、DMA転送の命令の個数、具体的には、転送すべき探索領域の個数に応じて増加(例えば、比例)する。探索領域が入力画像の全領域である場合、転送すべき探索領域の個数は1つであるので、オーバーヘッド時間は、図5に示すように、オーバーヘッド時間T101のみである。
転送処理時間T102は、所定の画像情報をDMA転送するのに要する時間である。転送処理時間は、転送する情報量、具体的には、探索領域の大きさ(面積)に応じて増加(例えば、比例)する。
画像認識処理時間T103は、入力された画像における画像認識を行う処理時間である。画像認識処理時間は、画像認識すべき画像の面積、すなわち、探索領域の大きさ(面積)に応じて増加(例えば、比例)する。
ターンアラウンドタイムT104は、入力画像の全領域を探索した場合に要する第2処理時間の一例である。具体的には、ターンアラウンドタイムT104は、CPU301が画像認識実行の命令を発行してから、画像認識装置100により画像認識結果が出力されるまでに要する時間である。ターンアラウンドタイムは、オーバーヘッド時間と、転送処理時間と、画像認識処理時間との合計で表される。
図6は、本発明の実施の形態1に係る第1探索領域を探索した場合のタイミングチャートの一例を示す図である。ここでは、探索領域が、図2に示す第1探索領域202a〜202dの4つの領域である場合について説明する。
転送すべき第1探索領域の個数は4つであるから、画像認識装置100へ順次、画像情報をデータ転送する必要があるために、CPU301が順次、命令を発行するためのオーバーヘッド時間T201a、T201b、T201c及びT201dが存在する。つまり、1つの探索領域に対して、1つのオーバーヘッド時間が存在する。なお、オーバーヘッド時間は、第1探索領域の大きさには関わらず、1つの探索領域につき、ほぼ同じ時間になる。
また、転送すべき第1探索領域の個数は4つであるから、転送処理時間T202a、T202b、T202c及びT202dが存在する。つまり、1つの探索領域に対して、1つの転送処理時間が存在する。転送処理時間はそれぞれ対応する第1探索領域の大きさに応じた時間となる。図6において、転送処理時間T202a〜T202dはそれぞれ、第1探索領域202a〜202dの転送に要する時間である。第1探索領域202dは、第1探索領域202aより面積が大きいので、転送処理時間T202dも、転送処理時間T202aより長い時間となる。
同様に、転送された第1探索領域の個数は4つであるから、画像認識処理時間T203a、T203b、T203c及びT203dが存在する。つまり、1つの探索領域に対して、1つの画像認識処理時間が存在する。転送処理時間と同様に、画像認識処理時間も、それぞれ対応する第1探索領域の大きさに応じた時間となる。図6において、画像認識処理時間T203a〜T203dはそれぞれ、第1探索領域202a〜202dの画像認識に要する時間である。
ターンアラウンドタイムT204は、探索領域初期設定部102によって設定された第1探索領域を探索した場合に要する第1処理時間の一例である。ターンアラウンドタイムT204は、第1探索領域毎のオーバーヘッド時間、転送処理時間及び画像認識処理時間の合計を、第1探索領域の分だけ合計した時間である。
画像認識装置100の探索領域設定部104は、探索領域情報に基づいて、探索領域初期設定部102によって設定された第1探索領域を探索した場合に要する第1処理時間と、第2探索領域の候補となる領域を探索した場合に要する第2処理時間とを推定する。そして、第1処理時間が第2処理時間より短い場合は、探索領域設定部104は、探索領域初期設定部102によって設定された第1探索領域を第2探索領域として設定する。また、第2処理時間が第1処理時間より短い場合は、探索領域設定部104は、第2探索領域の候補となる領域を第2探索領域として設定する。第2探索領域の候補となる領域は、例えば、入力画像の全領域、又は、第1探索領域である。
図5及び図6で示すように、画像認識に要するターンアラウンドタイムは、探索領域の数に応じて増加するオーバーヘッド時間と、探索領域の面積に応じて増加する画像情報のデータ転送時間及び画像認識処理時間とで構成される。
画像認識装置100における探索領域設定部104は、第1探索領域に要するターンアラウンドタイム、及び、第2探索領域の候補となる探索領域に要するターンアラウンドタイムを算出する。そして、探索領域設定部104は、算出結果に基づいて、第1探索領域の再設定を行うか否かを判定する。探索領域を再設定すると判定した場合、探索領域設定部104は、第2探索領域を設定する。
例えば、第2探索領域の候補となる探索領域に要するターンアラウンドタイムが第1探索領域に要するターンアラウンドタイムより短い場合に、探索領域設定部104は、探索領域の再設定をしてもよい。例えば、第1探索領域のターンアラウンドタイムT204、第2探索領域の候補となる探索領域のターンアラウンドタイムT104の例では、ターンアラウンドタイムT204<ターンアラウンドタイムT104である。このことから、「第2探索領域=第1探索領域」と設定される。
また、探索領域設定部104は、第1探索領域とそれ以外の複数の探索領域の各々のターンアラウンドタイムを算出し、最も処理時間が短い探索領域を第2探索領域として設定してもよい。なお、ターンアラウンドタイムの算出には、探索領域の種々の情報を用いて行うものとし、例えば、以下の式2で行う。
Figure 2012118634
図7は、本発明の実施の形態1に係る画像認識方法の一例を示すフローチャートである。
まず、画像認識装置100に画像情報を入力する。すなわち、画像入力部101が入力画像111を取得する(S101)。
次に、探索領域初期設定部102は、第1探索領域を設定する(S102)。例えば、探索領域初期設定部102は、入力画像111の画像特徴量に基づいて、入力画像111内の領域を第1探索領域として設定する。具体的には、探索領域初期設定部102は、図2に示すように、特定の色(肌色)を含む領域、及び、動きが発生している領域を第1探索領域として設定する。
探索領域情報抽出部103は、探索領域初期設定部102によって設定された第1探索領域の数と、第1探索領域の各々の面積及び縦横の長さを算出する(S103)。つまり、探索領域情報抽出部103は、図3に示すような探索領域情報を抽出する。
次に、探索領域設定部104は、探索領域情報抽出部103によって算出された種々の情報を用いて、第1探索領域の画像認識に要する第1処理時間、及び、第2探索領域の候補になる探索領域の画像認識に要する第2処理時間を算出する(S104)。具体的には、探索領域設定部104は、式2を用いて、第1探索領域と第2探索領域の候補となる領域とのそれぞれのターンアラウンドタイムを第1処理時間及び第2処理時間として算出する。なお、第2探索領域の候補は、例えば、入力画像111の全領域である。
そして、探索領域設定部104は、算出結果を基に探索処理時間の短い探索領域を、第2探索領域として設定する(S105)。
続いて、画像認識判定部105は、画像認識処理を実施する(S106)。つまり、画像認識判定部105は、探索領域設定部104によって設定された第2探索領域を探索することで、所望の対象物を表す対象画像を抽出する。ここで、画像認識処理は、所望の対象画像とのパターンマッチングによる抽出処理であってもよく、また、これに限定されるものではない。
最後に、画像認識判定部105は、画像認識結果112を出力する(S107)。
以上のように、本発明の実施の形態1に係る画像認識装置及び画像認識方法では、予め設定された第1探索領域の数及び大きさに基づいて、新たな探索領域である第2探索領域を設定する。具体的には、本発明の実施の形態1では、入力された画像に対して、少なくとも1つの第1探索領域を初期設定し、設定された各々の第1探索領域に関する情報から第2探索領域を設定する。これにより、画像認識を実現する上で事前学習を必要とせず、画像認識に要する処理時間の削減が可能になる。つまり、対象画像の探索処理に要する処理時間の削減効果を向上させることができる。
また、本発明の実施の形態1では、統計的手法を用いていないため、どのような入力画像が入力された場合であっても、適切に探索領域を設定することができる。
(実施の形態2)
本発明の実施の形態2に係る画像認識方法は、実施の形態1に係る画像認識方法に加えて、複数の第1探索領域が設定されている場合に、当該複数の第1探索領域の少なくとも2つを含む領域である統合領域を、第2探索領域の候補となる領域として設定する統合領域設定ステップを含む。そして、探索領域の再設定では、第1探索領域、統合領域、又は、入力画像の全領域を、第2探索領域として設定することを特徴とする。
次に、本発明の実施の形態2に係る画像認識方法を行う画像認識装置400の構成について説明する。図8は、本発明の実施の形態2に係る画像認識装置400の構成の一例を示すブロック図である。
本発明の実施の形態2に係る画像認識装置400は、実施の形態1に係る画像認識装置100と概ね同様の構成を備える一方、さらに、探索領域統合部401を備える点が異なっている。以下では、実施の形態1と同じ点は説明を省略し、異なる点を中心に説明する。
探索領域統合部401は、複数の第1探索領域が設定されている場合に、少なくとも2つの第1探索領域を含む領域である統合領域を、第2探索領域の候補として設定する。つまり、探索領域統合部401は、探索領域初期設定部102によって設定された第1探索領域について、探索領域情報抽出部103からの探索領域情報を基に、第1探索領域の統合を行う。なお、探索領域情報は、例えば、第1探索領域の数、第1探索領域の各々の面積、縦横の長さの少なくとも1つを示す情報である。
図9から図12を用いて、探索領域の統合について説明する。図9は、探索領域の統合の判定の基準を示す図である。入力画像501内に第1探索領域502a〜502iが設定されている。
探索領域統合部401は、例えば、複数の第1探索領域の1つである対象第1探索領域と、当該対象第1探索領域を基点とする予め定められた範囲内に存在する他の第1探索領域とを含む領域を、統合領域として設定する。具体的には、第1探索領域502aを対象第1探索領域として着目すると、探索領域統合部401は、第1探索領域502aと、当該第1探索領域502aの左上アドレスを基準として、例えば、しきい値で定められる特定の領域である探索領域統合範囲503a内に存在する第1探索領域502a以外の第1探索領域とを統合する。この場合、探索領域統合部401は、探索領域統合範囲503aに存在する第1探索領域502bと、対象第1探索領域である第1探索領域502aとを包含する最小の領域を、統合探索領域504aとして設定する。
また、探索領域統合部401は、第1探索領域の縦横の長さの比率を考慮して統合するか否かの判断を行ってもよい。言い換えると、探索領域統合部401は、対象第1探索領域と他の第1探索領域との縦及び横のそれぞれの長さの比率に応じて、統合領域を設定するか否かを判定してもよい。具体的には、探索領域統合部401は、対象第1探索領域の縦の長さと他の第1探索領域の縦の長さとの比率と、対象第1探索領域の横の長さと他の第1探索領域の横の長さとの比率とがそれぞれ、予め定められた範囲内である場合に、統合領域を設定する。
図9の例では、探索領域統合範囲503b内には、第1探索領域502d、502e及び502fが設定されている。これらの第1探索領域の各々の縦及び横の長さ(縦の長さ,横の長さ)が、
第1探索領域502d・・・(50,10)
第1探索領域502e・・・(40,35)
第1探索領域502f・・・(10,100)
であるとする。
このとき、着目している第1探索領域、すなわち、対象第1探索領域が、第1探索領域502dである場合、対象第1探索領域に対する他の第1探索領域の縦及び横の長さの比率は、
第1探索領域502e・・・(40/50,35/10)
第1探索領域502f・・・(10/50,100/10)
となる。
ここで、探索領域の統合を行うために、縦及び横のそれぞれの長さの比率が満たすべき条件が、
縦の比率の範囲:1/5〜5
横の比率の範囲:1/5〜5
の双方を満たす場合であるとした場合、第1探索領域502eは、縦と横の比率が共に上記範囲にあるので、第1探索領域502dと統合される。一方で、第1探索領域502fは、横の比率が上記範囲外になるので、第1探索領域502dと統合されない。その結果、探索領域統合部401は、第1探索領域502dと第1探索領域502eを包含する最小の領域を、統合探索領域504bとして設定する。
なお、探索領域の統合を行うための縦及び横の比率の範囲については、任意に設定可能であり、上述に限定されるものではない。
また、探索領域統合部401は、第1探索領域の各々の位置関係を考慮して統合するか否かの判断を行ってもよい。言い換えると、探索領域統合部401は、対象第1探索領域と他の第1探索領域との位置関係に基づいて、統合領域を設定するか否かを判定してもよい。
具体的には、探索領域統合部401は、対象第1探索領域と他の第1探索領域との位置関係が、左右の関係である場合、統合領域を設定する。つまり、探索領域統合部401は、対象第1探索領域と他の第1探索領域とにおける左右方向の距離が上下方向の距離より長い場合に、統合領域を設定する。言い換えると、探索領域統合部401は、対象第1探索領域を基準として上下方向より左右方向に長い所定の領域に含まれる他の第1探索領域と、対象第1探索領域とを統合する。なお、対象第1探索領域と他の第1探索領域との間の距離は、例えば、対象第1探索領域の左上アドレスと他の第1探索領域の左上アドレスとの距離である。
逆に、探索領域統合部401は、対象第1探索領域と他の第1探索領域との位置関係が、上下の関係である場合、統合領域を設定しない。つまり、探索領域統合部401は、対象第1探索領域と他の第1探索領域とにおける上下方向の距離が左右方向の距離より長い場合に、統合領域を設定する。言い換えると、探索領域統合部401は、対象第1探索領域を基準として左右方向より上下方向に長い所定の領域に含まれる他の第1探索領域と、対象第1探索領域とを統合する。
例えば、探索領域統合範囲503c内には、第1探索領域502g、502h及び502iが設定されている。これらの第1探索領域の各々の左上アドレス(縦の位置,横の位置)が、
第1探索領域502g・・・(400,200)
第1探索領域502h・・・(400,250)
第1探索領域502i・・・(470,200)
であるとする。
このとき、着目している第1探索領域、すなわち、対象第1探索領域が、第1探索領域502gである場合、統合条件として、さらに、第1探索領域の各々の左上アドレスが所定の統合判定領域505(400±10,200±100)の範囲に絞り込む。第1探索領域502hの左上アドレスは、統合判定領域505に含まれるので、第1探索領域502gと第1探索領域502hとは統合される。一方で、第1探索領域502iは、統合判定領域505に含まれないために統合されない。その結果、探索領域統合部401は、第1探索領域502gと第1探索領域502hとを包含する最小の領域を、統合探索領域504cとして設定する。
ここで、左上アドレスの所定の領域を上述のように設定することで、画像の位置関係上、探索領域が左右に存在する場合は探索領域の統合が行われるが、探索領域が上下に存在する場合は探索領域の統合が行われない。
また、探索領域統合部401は、探索領域初期設定部102によって設定された複数の第1探索領域のうち、統合の対象となる少なくとも2つの第1探索領域を探索した場合に要する第3処理時間と、統合領域を探索した場合に要する第4処理時間とを推定し、第4処理時間が第3処理時間より短い場合に、統合領域を設定してもよい。具体的には、例えば、式1によりターンアラウンドタイムが最小となるように探索領域を統合してもよい。また、各々の第1探索領域の縦及び横の長さを考慮して統合してもよい。また、複数の第1探索領域の位置関係を考慮して統合の判定を行ってもよく、上述に限定したものではない。
図10は、本発明の実施の形態2に係る探索領域の統合の一例を示す図である。探索領域統合部401は、第1探索領域202a及び202cを統合し、新たに統合された領域である統合探索領域604を設定する。
図11は、本発明の実施の形態2に係る統合された探索領域情報の一例を示す図である。探索領域情報抽出部103は、統合探索領域604と、第1探索領域202b及び202dとについての探索領域情報を抽出する。探索領域情報は、統合領域及び第1探索領域の数、統合領域及び第1探索領域のそれぞれの位置及び長さを示す情報である。
ここで、図3と比較すると、第1探索領域が統合されているので、
統合探索領域604の面積 ≧ 第1探索領域202aの面積 + 第1探索領域202cの面積
となり、探索すべき領域の面積は増加している。
図12は、本発明の実施の形態2に係る統合された探索領域を探索した場合のタイミングチャートの一例を示す図である。
図10の例では、転送すべき統合領域及び第1探索領域の個数は3つであるから、オーバーヘッド時間T301、T201b及びT201dが存在し、転送処理時間T302、T202b及びT202dが存在する。なお、転送処理時間T302は、統合探索領域604を転送するのに要する時間である。
また、転送された統合領域及び第1探索領域の個数は3つであるから、画像認識処理時間T303、T203b及びT203dが存在する。画像認識処理時間T303は、統合探索領域604の画像認識に要する時間である。
ターンアラウンドタイムT304は、第2探索領域の候補となる領域を探索した場合に要する第2処理時間の一例である。具体的には、ターンアラウンドタイムT304は、探索領域統合部401によって設定された統合領域と、探索領域初期設定部102によって設定された第1探索領域のうち統合されていない第1探索領域とを探索した場合に要する処理時間である。
ここで、第1探索領域を統合することで、統合後の探索領域の面積は増加する。このため、画像情報の転送に要する時間及び画像認識に要する時間は、
転送処理時間T302 > 転送処理時間T202a + 転送処理時間T202c
画像認識処理時間T303 > 画像認識処理時間T203a + 画像認識処理時間T203c
を満たしており、統合前より増加する。
しかし、画像認識の処理全体に要するターンアラウンドタイムは、図6及び図12から比較して分かるように、
ターンアラウンドタイムT304 < ターンアラウンドタイムT204
となる。したがって、第1探索領域を統合することにより、画像認識の処理全体に要する処理時間を短縮する効果がある。これは、第1探索領域を統合することで、探索領域の面積増加に伴う転送処理時間及び画像認識処理に要する処理時間の増加よりも、探索領域の数を減らすことにより画像情報を転送する際に必要とされるオーバーヘッドの処理時間の削減が上回るためである。
探索領域設定部104は、実施の形態1と同様に、第2探索領域の候補となる領域を探索した場合に要する処理時間に基づいて、第2探索領域を設定する。例えば、探索領域設定部104は、第1探索領域のターンアラウンドタイムと、第2探索領域の候補となる探索領域のターンアラウンドタイムとに基づいて、第2探索領域を設定する。第2探索領域の候補は、例えば、入力画像の全領域、及び、探索領域統合部401によって設定された統合領域などである。具体的には、探索領域設定部104は、第1探索領域のターンアラウンドタイムと、入力画像の全領域のターンアラウンドタイムと、統合領域のターンアラウンドタイムとのうち、ターンアラウンドタイムが最小となる探索領域を、第2探索領域として設定してもよい。
図13は、本発明の実施の形態2に係る画像認識方法の一例を示すフローチャートである。なお、図7に示す実施の形態1に係る画像認識方法と同じ処理については、説明を省略する。
画像認識装置400に入力画像111が入力されると(S101)、探索領域初期設定部102は、複数の第1探索領域を設定する(S102)。そして、探索領域情報抽出部103は、複数の第1探索領域の数、及び、複数の第1探索領域それぞれの位置、面積、縦横の長さを示す探索領域情報を取得する(S103)。これらは、実施の形態1と同様の処理である。
次に、探索領域統合部401は、統合領域を設定する(S201)。例えば、上述したように、探索領域統合部401は、設定された複数の第1探索領域のうちの1つである対象第1探索領域と、当該対象第1探索領域を基点とする予め定められた範囲内に存在する他の第1探索領域とを含む領域を、統合領域として設定する。なお、このとき、探索領域統合部401は、処理時間に基づいて、統合領域を設定するか否かを判定してもよい。
そして、探索領域情報抽出部103は、設定された統合領域の数、統合領域それぞれの位置、面積、及び、縦横の長さを示す情報を取得する(S202)。探索領域情報抽出部103は、ステップS103で抽出された情報と合わせて、探索領域設定部104に出力する。これにより、探索領域設定部104は、例えば、図11に示すような、統合領域と第1探索領域との数、位置及び大きさを示す探索領域情報を取得する。
次に、探索領域設定部104は、第2探索領域の候補となる領域を探索した場合に要する処理時間を算出する(S104)。具体的には、探索領域設定部104は、探索領域初期設定部102によって設定された複数の第1探索領域を探索した場合に要する処理時間、入力画像の全領域を探索した場合に要する処理時間、及び、統合領域と統合されなかった第1探索領域とを探索した場合に要する処理時間を算出する。具体的な算出方法は、実施の形態1に示した通りである。
そして、探索領域設定部104は、算出した処理時間のうち、最も短い処理時間に対応する探索領域を、第2探索領域として設定する(S105)。なお、最も短い処理時間ではなく、予め定められた閾値より短い処理時間に対応する探索領域を、探索領域設定部104は、第2探索領域として設定してもよい。
以降、実施の形態1と同様にして、画像認識判定部105は、画像認識処理を実行し(S106)、画像認識結果112を出力する(S107)。
このように、本発明の実施の形態2に係る画像認識装置及び画像認識方法では、設定された第1探索領域を統合する手段を有することで、所望の対象物を抽出する処理に要する時間をより削減することが可能になる。上述したように、探索領域を探索するのに要する時間は、探索領域の数に応じて増加する時間と探索領域の面積に応じて増加する時間とを含んでいる。したがって、第1探索領域を統合することで、探索領域の数を減らすことが可能となり、探索領域の数を減らすことによる時間の削減量が、探索領域の面積が増加することによる時間の増加量を上回っている場合に、探索領域を探索するのに要する時間を短くすることができる。
(実施の形態3)
本発明の実施の形態3では、上述した実施の形態1及び実施の形態2に係る画像認識装置を備える撮像システムについて説明する。
図14は、本発明の実施の形態3に係る撮像システム700の構成の一例を示すブロック図である。撮像システム700は、例えば、デジタルスチルカメラ、デジタルビデオカメラ、又はセキュリティカメラ等である。
図14に示す撮像システム700は、光学系701と、センサー部702と、A/D変換回路703と、画像処理回路704と、記録転送部705と、再生部706と、タイミング制御回路707と、システム制御回路708とを備える。
光学系701は、レンズ等からなり、被写体を撮像素子センサーに結像する。
センサー部702は、撮像素子センサーを有し、光学系701により結像された画像光を光電変換することにより電気信号(画像信号)を生成する。ここで、撮像素子センサーとしては、CCD(Charge Coupled Device)を用いたセンサー又はCMOS(Complementary Metal Oxide Semiconductor)を用いたセンサー等、種々のセンサーを採用できる。
A/D変換回路703は、センサー部702により生成された電気信号(アナログ信号)をデジタル信号に変換する。
画像処理回路704は、上述した実施の形態1及び実施の形態2に係る画像認識装置100又は画像認識装置400のいずれかを備える。画像処理回路704は、A/D変換回路703により変換されたデジタル信号に、YC信号生成、Y/C処理、エッジ処理、画像の拡大縮小、JPEG及びMPEGなどの所定の規格の画像圧縮/伸張処理、及び画像圧縮されたストリームの制御等を行う。また、画像認識装置100又は画像認識装置400は、A/D変換回路703により変換されたデジタル信号を入力画像として取得し、取得した入力画像から、所定の対象物を表す対象画像を抽出する。
記録転送部705は、画像処理回路704により画像処理された信号、及び、画像認識装置100又は画像認識装置400によって検出された結果を、記録メディア(図示せず)へ記録する。あるいは、記録転送部705は、画像処理された信号、及び、検出された結果を、インターネット等を介して伝送してもよい。なお、好ましい記録メディアとしては、SD(Secure Digital)メモリカード、コンパクトフラッシュ(登録商標)カード、スマートメディアカード、メモリスティックなどがある。
再生部706は、記録転送部705により記録又は転送された信号を再生する。なお、再生画像に重ねて画像認識結果を表示してもよい。
図15は、本発明の実施の形態3に係る画像認識結果の表示例である。図15に示すように、再生画像801の範囲内に所望の対象物が存在する領域(対象画像)を枠802で表示するといった表示ができる。例えば、所望の対象物を人物の顔とすれば、顔の領域に枠が表示される。また、所望の対象物を動き領域とすれば、複数の画像間で動きが発生した領域を枠で表示することができる。
タイミング制御回路707は、センサー部702及び画像処理回路704を制御する。例えば、タイミング制御回路707は、画像認識装置100又は画像認識装置400にクロックを供給する。
システム制御回路708は、光学系701、記録転送部705、再生部706及びタイミング制御回路707を制御する。
なお、光学系701のAF(Automatic Focus)の動作中、又は、センサー部702のAE(Automatic Exposure)の動作中は、撮影される画像が安定しない。このため、システム制御回路708は、画像認識装置100又は画像認識装置400を止めてよい。例えば、システム制御回路708は、タイミング制御回路707を制御することで、画像認識装置100又は画像認識装置400へのクロックの供給を停止させてもよい。
なお、システム制御回路708は、画像信号の画素値が予め定められた所定の範囲外である場合に、画像認識装置100又は画像認識装置400の動作を停止させてもよい。例えば、強い光によってセンサー部702より出力される画像信号値が第1所定値以上となり画像が白くなる場合や、明かりのない場所でセンサー部702より出力される画像信号値が第2所定値以下となり画像が黒くなる場合、画像のパターンが変化する。このため、これらの場合も、画像認識装置100又は画像認識装置400の動作を止めてもよい。
これにより、入力画像が白飛びしている場合、又は、黒潰れしている場合などの入力画像が適切でない場合に画像認識処理を停止させることができるので、消費電力の低減、及び、処理負荷を低減することができる。
ここで、第1所定値及び第2所定値は、任意の値に設定可能であり、各画素が取りうる諧調の範囲に依存して適応的に決定してもよい。例えば、諧調値が0から1023までの値を取りうるのであれば、第1所定値を1023に設定し、第2所定値を10に設定する。また、諧調値が0から4095までの値を取りうるのであれば、第1所定値を4095に設定し、第2所定値を40に設定する。
以上の構成に示すように、本発明の実施の形態3に係る撮像システム700は、光を結像する光学系701と、結像された光を、上記入力画像を示す画像信号に変換するセンサー部702と、上記実施の形態1又は2に係る画像認識装置100又は400とを備える。これにより、例えば、顔認識機能を有し、顔認識に要する処理時間を短くすることができるカメラなどを実現することができる。
なお、実施の形態3では、本発明に係る画像認識装置100又は画像認識装置400を、光学系701からの画像光をセンサー部702で光電変換してA/D変換回路703に入力するカメラ機器などに用いた例を説明したが、本発明に係る画像認識装置100又は画像認識装置400を、その他の機器に用いてもよいことは言うまでもない。例えば、テレビなどのAV機器のアナログ映像入力を直接にA/D変換回路703に入力してもよく、再生部706で再生された画像を入力してもよい。
以上、本発明に係る画像認識装置、画像認識方法及び撮像システムについて、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
例えば、第1探索領域、第2探索領域及び統合領域の位置を表す情報として、各領域の左上アドレスを用いたが、これには限られない。例えば、各領域の左下アドレス、右上アドレス、右下アドレス、中心アドレス(対角線の交点を示すアドレス)でもよい。
また、各実施の形態では、第1探索領域及び第2探索領域ともに矩形領域を例に説明したが、第1探索領域及び第2探索領域の形状は、矩形でなくてもよい。具体的には、第1探索領域及び第2探索領域は、円形、楕円形、多角形などでもよい。例えば、第1探索領域が円形である場合、探索領域情報抽出部103は、円の中心を示すアドレス及び円の半径を示す情報を抽出すればよい。
また、本発明の実施の形態に係る画像認識装置100又は画像認識装置400は、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよく、一部又は全てを含むように1チップ化されてもよい。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
また、上述した各実施の形態における各処理は、CPUを有するコンピュータにより各処理の機能を実現するためのプログラムを記録媒体(メモリ)から読み出し実行することで機能を実現させるものでもよい。
また、本発明は、上記の各実施の形態に係る画像認識方法をコンピュータに実現させるためのプログラムを格納する非一時的なコンピュータ読み取り可能な記録媒体として実現することができる。CPUが読み出す記録媒体としては、ROMやRAM(Random Access Memory)に限定されず、HDD(Hard Disk Drive)、CD又はDVD(Digital Versatile Disc)などの光ディスクなどでもよく、コンピュータが読み取り、読み書き可能な媒体から構成される。
また、伝送媒体により、プログラムをコンピュータの外部より読み書きしてもよい。ここで、伝送媒体は、インターネットなどのネットワークのように情報を伝送する機能を有する媒体をいう。
上述のプログラムは、上述した機能の全て又は一部を実現するためであってもよい。
本発明は、画像認識方法及び画像認識装置に適用でき、例えば、ヒューマンインターフェース、データベース検索、セキュリティ、顔による照合システム、ゲーム、教育、映画製作、エンターテイメント、画像通信などの種々の分野における画像認識方法及び画像認識装置として利用することができる。
100、400 画像認識装置
101 画像入力部
102 探索領域初期設定部
103 探索領域情報抽出部
104 探索領域設定部
105 画像認識判定部
111、201、501 入力画像
112 画像認識結果
202a〜202d、502a〜502i 第1探索領域
300 画像処理装置
301 CPU
302 DMAC
303 共有メモリ
304 メモリ
401 探索領域統合部
503a〜503c 探索領域統合範囲
504a〜504c、604 統合探索領域
505 統合判定領域
700 撮像システム
701 光学系
702 センサー部
703 A/D変換回路
704 画像処理回路
705 記録転送部
706 再生部
707 タイミング制御回路
708 システム制御回路
801 再生画像
802 枠
T101、T201a〜T201d、T301 オーバーヘッド時間
T102、T202a〜T202d、T302 転送処理時間
T103、T203a〜T203d、T303 画像認識処理時間
T104、T204、T304 ターンアラウンドタイム

Claims (21)

  1. 予め定められた対象物を表す対象画像を入力画像から抽出する画像認識方法であって、
    前記対象画像を探索するための前記入力画像内の探索領域として予め設定された少なくとも1つの第1探索領域の数と、前記少なくとも1つの第1探索領域それぞれの大きさとの少なくとも1つを示す探索領域情報に基づいて、前記入力画像内の第2探索領域を設定する探索領域設定ステップと、
    前記第2探索領域を探索することで、前記対象画像を抽出する探索ステップとを含む
    画像認識方法。
  2. 前記探索領域設定ステップでは、
    前記探索領域情報に基づいて、前記少なくとも1つの第1探索領域を探索した場合に要する第1処理時間と、前記第2探索領域の候補となる領域を探索した場合に要する第2処理時間とを推定し、
    前記第1処理時間が前記第2処理時間より短い場合は、前記少なくとも1つの第1探索領域を前記第2探索領域として設定し、前記第2処理時間が前記第1処理時間より短い場合は、前記第2探索領域の候補となる領域を前記第2探索領域として設定する
    請求項1記載の画像認識方法。
  3. 前記探索領域設定ステップでは、前記第1探索領域の数に応じて増加する第1時間と、前記第1探索領域の大きさに応じて増加する第2時間とを加算することで、前記第1処理時間を推定する
    請求項2記載の画像認識方法。
  4. 前記画像認識方法は、さらに、前記少なくとも1つの第1探索領域を初期設定する初期設定ステップを含み、
    前記探索領域設定ステップでは、前記初期設定ステップにおいて設定された少なくとも1つの第1探索領域に関する前記探索領域情報に基づいて、前記第2探索領域を設定する
    請求項1〜3のいずれか1項に記載の画像認識方法。
  5. 前記初期設定ステップでは、前記入力画像のうち予め定められた色を含む領域を、前記第1探索領域として初期設定する
    請求項4記載の画像認識方法。
  6. 前記初期設定ステップでは、前記入力画像のうち肌色を含む領域を、前記第1探索領域として初期設定する
    請求項5記載の画像認識方法。
  7. 前記初期設定ステップでは、前記入力画像のうち動きが発生している領域を、前記第1探索領域として初期設定する
    請求項4記載の画像認識方法。
  8. 前記探索領域設定ステップでは、前記第1探索領域、又は、前記入力画像の全領域を、前記第2探索領域として設定する
    請求項1記載の画像認識方法。
  9. 前記画像認識方法は、さらに、複数の前記第1探索領域が設定されている場合に、少なくとも2つの前記第1探索領域を含む領域である統合領域を、前記第2探索領域の候補となる領域として設定する統合領域設定ステップを含み、
    前記探索領域設定ステップでは、前記第1探索領域、前記統合領域、又は、前記入力画像の全領域を、前記第2探索領域として設定する
    請求項1記載の画像認識方法。
  10. 前記統合領域設定ステップでは、
    前記少なくとも2つの第1探索領域を探索した場合に要する第3処理時間と、前記統合領域を探索した場合に要する第4処理時間とを推定し、
    前記第4処理時間が前記第3処理時間より短い場合に、前記統合領域を設定する
    請求項9記載の画像認識方法。
  11. 前記統合領域設定ステップでは、複数の前記第1探索領域の1つである対象第1探索領域と、当該対象第1探索領域を基点とする予め定められた範囲内に存在する他の第1探索領域と含む領域を、前記統合領域として設定する
    請求項9記載の画像認識方法。
  12. 前記統合領域設定ステップでは、前記対象第1探索領域と前記他の第1探索領域との縦及び横のそれぞれの長さの比率に応じて、前記統合領域を設定するか否かを判定する
    請求項11記載の画像認識方法。
  13. 前記統合領域設定ステップでは、前記対象第1探索領域の縦の長さと前記他の第1探索領域の縦の長さとの比率と、前記対象第1探索領域の横の長さと前記他の第1探索領域の横の長さとの比率とがそれぞれ、予め定められた範囲内である場合に、前記統合領域を設定する
    請求項12記載の画像認識方法。
  14. 前記統合領域設定ステップでは、前記対象第1探索領域と前記他の第1探索領域との位置関係に基づいて、前記統合領域を設定するか否かを判定する
    請求項11記載の画像認識方法。
  15. 前記統合領域設定ステップでは、前記対象第1探索領域と前記他の第1探索領域とにおける左右方向の距離が上下方向の距離より長い場合、前記統合領域を設定する
    請求項14記載の画像認識方法。
  16. 前記統合領域設定ステップでは、前記対象第1探索領域と前記他の第1探索領域とにおける上下方向の距離が左右方向の距離より長い場合、前記統合領域を設定しない
    請求項14記載の画像認識方法。
  17. 前記探索ステップでは、パターンマッチングを行うことで、前記第2探索領域内に前記対象画像が含まれるか否かを判定し、前記対象画像が含まれている場合に、当該対象画像を抽出する
    請求項1〜16のいずれか1項に記載の画像認識方法。
  18. 請求項1〜17のいずれか1項に記載の画像認識方法をコンピュータに実行させるためのプログラムを記録する非一時的なコンピュータ読み取り可能な記録媒体。
  19. 予め定められた対象物を表す対象画像を入力画像から抽出する画像認識装置であって、
    前記対象画像を探索するための前記入力画像内の探索領域として予め設定された少なくとも1つの第1探索領域の数と、前記少なくとも1つの第1探索領域それぞれの大きさとの少なくとも1つを示す探索領域情報に基づいて、前記入力画像内の第2探索領域を設定する探索領域設定部と、
    前記第2探索領域を探索することで、前記対象画像を抽出する探索部とを備える
    画像認識装置。
  20. 請求項19記載の画像認識装置と、
    光を結像する光学系と、
    前記光学系によって結像された光を、前記入力画像を示す画像信号に変換するセンサー部とを備える
    撮像システム。
  21. 前記撮像システムは、さらに、前記画像認識装置の動作を制御するシステム制御部を備え、
    前記システム制御部は、前記画像信号の画素値が予め定められた所定の範囲外である場合に、前記画像認識装置の動作を停止する
    請求項20記載の撮像システム。
JP2010265741A 2010-11-29 2010-11-29 画像認識方法、画像認識装置及び撮像システム Pending JP2012118634A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010265741A JP2012118634A (ja) 2010-11-29 2010-11-29 画像認識方法、画像認識装置及び撮像システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010265741A JP2012118634A (ja) 2010-11-29 2010-11-29 画像認識方法、画像認識装置及び撮像システム

Publications (1)

Publication Number Publication Date
JP2012118634A true JP2012118634A (ja) 2012-06-21

Family

ID=46501408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010265741A Pending JP2012118634A (ja) 2010-11-29 2010-11-29 画像認識方法、画像認識装置及び撮像システム

Country Status (1)

Country Link
JP (1) JP2012118634A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012302A (ja) * 2014-06-30 2016-01-21 株式会社デンソー 対象物検出装置
WO2019171779A1 (ja) * 2018-03-07 2019-09-12 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
WO2019187549A1 (ja) * 2018-03-27 2019-10-03 ソニー株式会社 情報処理装置および情報処理方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012302A (ja) * 2014-06-30 2016-01-21 株式会社デンソー 対象物検出装置
WO2019171779A1 (ja) * 2018-03-07 2019-09-12 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
JP2019159391A (ja) * 2018-03-07 2019-09-19 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
CN111699509A (zh) * 2018-03-07 2020-09-22 欧姆龙株式会社 物体检测装置、物体检测方法以及程序
US11494906B2 (en) 2018-03-07 2022-11-08 Omron Corporation Object detection device, object detection method, and program
CN111699509B (zh) * 2018-03-07 2023-09-26 欧姆龙株式会社 物体检测装置、物体检测方法以及记录介质
WO2019187549A1 (ja) * 2018-03-27 2019-10-03 ソニー株式会社 情報処理装置および情報処理方法
US11620997B2 (en) 2018-03-27 2023-04-04 Sony Corporation Information processing device and information processing method

Similar Documents

Publication Publication Date Title
CN101419666B (zh) 图像处理装置、图像捕获装置、图像处理方法及记录媒介
JP4902562B2 (ja) 撮像装置、画像処理装置、制御方法およびプログラム
JP4884251B2 (ja) 撮影装置および方法並びにプログラム
JP4973098B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6049448B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
US9092659B2 (en) Subject determination apparatus that determines whether or not subject is specific subject
JP2009290818A (ja) カメラ、カメラ制御プログラム及び撮影方法
US8373775B2 (en) Apparatus, method and software stored on a computer-readable storage medium, for reducing noise in an image
US9900523B2 (en) Image processing apparatus which performs image processing on photographic subject
JP5125734B2 (ja) 撮像装置、画像選択方法及び画像選択プログラム
WO2016004819A1 (zh) 一种拍摄方法、拍摄装置和计算机存储介质
US8295609B2 (en) Image processing apparatus, image processing method and computer readable-medium
JP2015177300A (ja) 画像認識装置および画像認識方法
JP2010171797A (ja) 撮像装置及びプログラム
US8582813B2 (en) Object detection device which detects object based on similarities in different frame images, and object detection method and computer-readable medium recording program
JP2009111716A (ja) 撮像装置、プログラムおよびテンプレート生成方法
JP5504990B2 (ja) 撮像装置、画像処理装置及びプログラム
US8334919B2 (en) Apparatus and method for digital photographing to correct subject area distortion caused by a lens
JP2012118634A (ja) 画像認識方法、画像認識装置及び撮像システム
JP2008005438A (ja) 撮像装置及び撮像方法
JP6099973B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
JP5392336B2 (ja) 撮像装置、撮像方法および撮像プログラム
US11575826B2 (en) Image processing apparatus and method, and image capturing apparatus
JP7054492B2 (ja) 情報加工モジュール、情報加工方法、情報加工プログラム及び情報処理装置
JP5740934B2 (ja) 被写体検出装置、被写体検出方法及びプログラム