JP2012226583A - Image processor, image processing system and image processing method - Google Patents
Image processor, image processing system and image processing method Download PDFInfo
- Publication number
- JP2012226583A JP2012226583A JP2011094108A JP2011094108A JP2012226583A JP 2012226583 A JP2012226583 A JP 2012226583A JP 2011094108 A JP2011094108 A JP 2011094108A JP 2011094108 A JP2011094108 A JP 2011094108A JP 2012226583 A JP2012226583 A JP 2012226583A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- processing apparatus
- area
- object recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像処理装置、画像処理システム及び画像処理方法に関する。 The present invention relates to an image processing apparatus, an image processing system, and an image processing method.
従来、店舗やビルの天井、街頭、工場等において、防犯等のセキュリティー向上を目的として、監視用途にカメラ設置が進んでいる。更にコンビニエンスストア、ショッピングモールやスーパーマーケット等の店舗等や公共の場において、監視カメラを用いて通行する人数をカウントしたり、人流を解析したり、マーケティング目的として監視カメラを用いるシステムも提案されている。
このような画像中における、顔等の被写体を検出する技術は、以下に示す非特許文献1で提案されている。非特許文献1では、ニューラル・ネットワークにより画像中の顔パターンを検出している。以下、非特許文献1の技術を用いた装置の動作について簡単に説明する。まず、装置は、顔の検出を対象とする画像とをメモリに読み込み、顔と照合する所定の領域を読み込んだ画像中から切り出す。そして、装置は、切り出した領域の画素値の分布を入力としてニューラル・ネットワークによる演算で一つの出力を得る。このとき、ニューラル・ネットワークの重み、閾値が膨大な顔画像パターンと非顔画像パターンとにより予め学習されており、例えば、装置は、ニューラル・ネットワークの出力が0以上なら顔、それ以外は非顔であると判別する。そして、装置は、ニューラル・ネットワークの入力である顔と照合する画像パターンの切り出し位置を、画像全域から縦横順次に走査していくことにより、画像中から顔を検出する。また、装置は、様々な大きさの顔の検出に対応するため、画像を所定の割合で順次縮小し、それに対して前述した顔検出の走査を行うようにしている。
なお、非特許文献1は画像から顔を検出する技術について説明しているが、画像からその他の物体を検出する場合についても同様に実現することができる。
2. Description of the Related Art Conventionally, cameras have been installed for surveillance purposes in stores and building ceilings, streets, factories, and the like for the purpose of improving security such as crime prevention. In addition, systems have been proposed that use surveillance cameras to count people passing through convenience stores, shopping malls, supermarkets, etc., and public places, analyze human flow, and use surveillance cameras for marketing purposes. .
A technique for detecting a subject such as a face in such an image has been proposed in Non-Patent Document 1 shown below. In Non-Patent Document 1, a face pattern in an image is detected by a neural network. The operation of the apparatus using the technique of Non-Patent Document 1 will be briefly described below. First, the apparatus reads an image targeted for face detection into a memory, and cuts out a predetermined area to be compared with the face from the read image. Then, the apparatus receives a distribution of pixel values of the cut out region as an input, and obtains one output by calculation using a neural network. At this time, the weights and thresholds of the neural network are learned in advance using face image patterns and non-face image patterns, and, for example, the device is a face if the output of the neural network is 0 or more, and is non-face otherwise It is determined that Then, the apparatus detects the face from the image by scanning the cutout position of the image pattern to be collated with the face which is an input of the neural network in the vertical and horizontal directions from the entire image. Further, in order to cope with detection of faces of various sizes, the apparatus sequentially reduces the image at a predetermined ratio and performs the above-described face detection scanning.
Note that Non-Patent Document 1 describes a technique for detecting a face from an image, but the same can be realized when detecting other objects from an image.
また、カメラで撮像された映像から物体を認識する技術として特許文献1が開示されている。特許文献1の技術は、まず背景差分を行い背景画像と変化のある領域を絞り込み、動領域を検出した後、その領域を詳細に評価して個別の物体を識別する技術である。
一方、撮像範囲の大規模化に伴い複数台のカメラを設置し、同時に監視、撮影するシステムが実用化されている。しかし複数のカメラの画像を同時に上記のような顔検出、物体認識処理等を行うには相当量の処理性能が必要となる。したがって、如何に処理負荷を軽減するかという問題が存在する。この問題を解決する技術として、例えば特許文献2の技術が提案されている。特許文献2の技術は、検出したい特定人物をマーキングしておき、その人物がある画像から検出されたタイミングでその後の検出処理を打ち切るといった技術である。また、特許文献3では、全ての画像中の特定物体を検出、計上し、その計数に基づいて最適な画像のみを選別してサーバーに送信しその後の処理をするという技術が提案されている。
Patent Document 1 is disclosed as a technique for recognizing an object from an image captured by a camera. The technique of Patent Document 1 is a technique in which a background difference is first performed to narrow down a region that has changed from a background image, a moving region is detected, and then that region is evaluated in detail to identify individual objects.
On the other hand, with the enlargement of the imaging range, a system for installing a plurality of cameras and simultaneously monitoring and photographing them has been put into practical use. However, a considerable amount of processing performance is required to simultaneously perform face detection, object recognition processing, and the like as described above on a plurality of camera images. Therefore, there is a problem of how to reduce the processing load. As a technique for solving this problem, for example, the technique of Patent Document 2 has been proposed. The technique of Patent Document 2 is a technique in which a specific person to be detected is marked and the subsequent detection process is terminated at the timing when the person is detected from an image. Further, Japanese Patent Laid-Open No. 2004-228867 proposes a technique in which a specific object in all images is detected and counted, only an optimal image is selected based on the count, transmitted to a server, and then processed.
しかし、上述した技術は、特定人物の監視用途に限定していたり、認識処理を行う画像を限定したりしている。例えば、全ての画像で、全ての動体に対して認識処理する必要がある場合に上述した技術を適用すると、認識処理に負荷がかかり、認識処理におけるフレーム落ち等が発生する問題があった。 However, the above-described technique is limited to the monitoring application of a specific person, or the image to be recognized is limited. For example, when the above-described technique is applied when it is necessary to perform recognition processing for all moving objects in all images, there is a problem that a load is applied to the recognition processing and frames are dropped in the recognition processing.
本発明はこのような問題点に鑑みなされたもので、認識処理を軽減することを目的とする。 The present invention has been made in view of such problems, and an object thereof is to reduce recognition processing.
そこで、本発明は、第一の撮像手段で撮像された画像の画像処理を行い、前記第一の撮像手段と撮像範囲を一部共有する第二の撮像手段で撮像された画像の画像処理を行う第二の画像処理装置と通信を行う画像処理装置であって、前記第一の撮像手段で撮像された画像を取得する取得手段と、前記取得手段で取得された画像から物体領域を検知する検知手段と、取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知手段で検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断手段と、前記判断手段において前記画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断手段で前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定手段と、前記設定手段で設定された物体認識範囲に物体が写っているか否か物体認識を行う認識手段と、を有する。 Therefore, the present invention performs image processing of an image picked up by the first image pickup means, and performs image processing of an image picked up by the second image pickup means that partially shares the image pickup range with the first image pickup means. An image processing apparatus that communicates with a second image processing apparatus to perform, an acquisition unit that acquires an image captured by the first imaging unit, and an object region that is detected from the image acquired by the acquisition unit When the object area detected by the detection means is in a shared area between the detection means and the first imaging means and the second imaging means in the acquired image, the object recognition processing of the shared area A determination means for determining whether the image processing apparatus or the second image processing apparatus performs the image recognition, and the determination means determines that the image recognition apparatus performs the object recognition range for the entire image. Set to the range, If the second image processing apparatus determines that the object recognition range is to be set, the object recognition range is set to an area excluding the shared area from the entire range of the image, and the object recognition range set by the setting means Recognizing means for recognizing whether an object is captured or not.
本発明によれば、認識処理を軽減することができる。 According to the present invention, recognition processing can be reduced.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<実施形態1>
図1は、画像処理装置のハードウェア構成の一例を示す図である。
図1に示されるように、画像処理装置100は、ハードウェア構成として、制御装置10と、記憶装置11と、ネットワークインタフェース装置12と、を含む。制御装置10は、CPU等であって、記憶装置11に記憶されているプログラムに基づき処理を実行することによって、後述する画像処理装置100のソフトウェア構成及びフローチャートの処理を実現する。記憶装置11は、ROM、RAM、HD等であって、プログラムを記憶したり、画像を記憶したりする。ネットワークインタフェース装置12は、画像処理装置100をネットワークに接続する。
画像処理装置200も画像処理装置100のハードウェア構成と同様である。
なお、本実施形態では、後述する図2の画像処理装置の機能はソフトウェアとして実装されているものとして説明を行うが、後述する図2の画像処理装置の各機能を専用のハードウェアとして画像処理装置に実装してもよい。また、本実施形態では、後述するように、撮像装置と画像処理装置とを別体のものとして説明を行うが、同一の装置内であってもよい。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the image processing apparatus.
As shown in FIG. 1, the
The
In the present embodiment, the function of the image processing apparatus in FIG. 2 described later is described as being implemented as software. However, each function of the image processing apparatus in FIG. You may mount in an apparatus. In the present embodiment, as will be described later, the imaging apparatus and the image processing apparatus are described as separate units, but they may be in the same apparatus.
図2は、実施形態1の画像処理システムのシステム構成等の一例を示す図である。
図2に示されるように、画像処理システムは、視野、又は撮像範囲を一部共有する撮像装置110、210と、撮像装置で撮像された画像中から人物を検出する画像処理装置100、200と、を含む。ここで、撮像装置110は、第一の撮像手段の一例である。また、撮像装置210は、第二の撮像手段の一例である。また、画像処理装置100は、第一の画像処理装置の一例である。また、画像処理装置200は、第二の画像処理装置の一例である。
撮像装置110は、ビデオカメラ等の画像を撮像する装置であり、撮像レンズ、及び、光電変換を行って画素信号を生成する撮像素子から構成される。なお、撮像した画像は画像取得部101に入力される。
画像処理装置100は、本実施形態で提案する画像処理装置である。
画像取得部101は、撮像装置110により撮像された画像を取得する。
物体領域検知部102は、画像取得部101により取得された画像中から特定の画像領域を抽出する。
本実施形態においては、物体領域検知部102は、画像取得部101により取得された画像中から動体領域を抽出する。
負荷推定部103は、物体領域検知部102で抽出された画像領域から、物体認識部105で認識処理を行う際の処理負荷を推定する。
認識領域限定部104は、負荷推定部103で推定された処理負荷量と通信部106より受信した処理負荷量とを比較して、物体認識部105で認識処理をする領域を限定する。
物体認識部105は、物体領域検知部102で抽出された特定の画像領域に所望の物体が写っているかどうかを認識して検知する。
本実施形態においては、物体認識部105は、物体領域検知部102で抽出された特定の画像領域から人体領域を抽出する。
通信部106は、画像処理装置200の通信部206と処理負荷量を送受信する。
FIG. 2 is a diagram illustrating an example of a system configuration and the like of the image processing system according to the first embodiment.
As shown in FIG. 2, the image processing system includes
The
The
The
The object
In the present embodiment, the object
The
The recognition
The
In the present embodiment, the
The
同様にして、撮像装置210は、ビデオカメラ等の画像を撮像する装置であり、撮像レンズ、及び、光電変換を行って画素信号を生成する撮像素子から構成される。なお、撮像した画像は画像取得部201に入力される。
画像処理装置200は、本実施形態で提案する画像処理装置である。
画像取得部201は、撮像装置210により撮像された画像を取得する。
物体領域検知部202は、画像取得部201により取得された画像中から特定の画像領域を抽出する。
本実施形態においては、物体領域検知部202は、画像取得部201により取得された画像中から動体領域を抽出する。
負荷推定部203は、物体領域検知部202で抽出された画像領域から、物体認識部205で認識処理を行う際の処理負荷を推定する。
認識領域限定部204は、負荷推定部203で推定された処理負荷量と通信部206より受信した処理負荷量とを比較して、物体認識部205で認識処理をする領域を限定する。
物体認識部205は、物体領域検知部202で抽出された特定の画像領域に所望の物体が写っているかどうかを認識して検知する。
本実施形態においては、物体認識部205は、物体領域検知部202で抽出された特定の画像領域から人体領域を抽出する。
通信部206は、画像処理装置100の通信部106と処理負荷量を送受信する。
Similarly, the
The
The
The object
In the present embodiment, the object
The
The recognition
The
In the present embodiment, the
The
図3は、実施形態1の概要を示すフローチャートである。以下順を追って説明する。なお以下のフローチャートの動作は、画像処理装置100の場合を説明するが、画像処理装置200も同様の動作をする。
ステップS100:
まず、物体領域検知部102は、画像取得部101により取得された画像から、動体領域を抽出する。ここで、動体領域とは、物体領域検知部102が、同画角の、物体が写りこんでいない背景のみの画像と差分をとることで、抽出できる領域である。更に物体領域検知部102は、視野共有領域において、動体領域が存在しているか判定を行う。
ステップS200:
負荷推定部103は、動体領域より、物体認識部105での処理負荷を推定する。認識領域限定部104は、推定された処理負荷情報を用い、画像処理装置100、200間でどちらの処理負荷が高いか調停を行う。処理負荷が高い画像処理装置の認識領域限定部は、ステップS300で行う物体認識処理の領域を限定する。
ステップS300:
物体認識部105は、ステップS200で決定された物体認識すべき領域に、所望の物体が写っているか物体認識を行う。
以上、画像処理装置100は、ステップS100からステップS300までの処理を画像取得部101で入力された入力画像ごとに繰り返す。画像処理装置200も同様に、ステップS100からステップS300までの処理を画像取得部201で取得した入力画像ごとに繰り返す。
FIG. 3 is a flowchart showing an outline of the first embodiment. The following will be described in order. The operation of the following flowchart will be described for the
Step S100:
First, the object
Step S200:
The
Step S300:
The
As described above, the
以下、図4を用いてステップS100の詳細フローを説明する。図4は、ステップS100の詳細な処理の一例を示すフローチャートである。
ステップS101:
まず、画像取得部101は、ビデオカメラ等の撮像装置110により撮像した画像を取得する。ここで取得した画像は、例えば8ビットの画素により構成される、2次元配列のデータであり、R、G、B、3つの面で構成される。また、画像取得部101は、RGBデータを輝度データに変換し、輝度画像を以後の処理に用いてもよい。また、本実施形態においては動画を取り扱うことを想定し、処理はフレーム単位で実施する。よって、ここで得る画像とはフレームごとの静止画像である。
ステップS102:
物体領域検知部102は、画像取得部101が取得する画像中の、どの領域が隣接する視野を供した撮像装置間の共有領域であるかを、設定したかどうか判定する。
設定が完了しているならばS104へ分岐する。
共有領域の設定が未完了であるならば、共有領域を設定すべく、S103へ分岐する。
ステップS103:
物体領域検知部102は、画像取得部101が出力した画像中で、隣接する撮像装置と視野を共有している領域を設定する。
ステップS104:
物体領域検知部102は、画像取得部101から出力された画像に対し、記憶装置11に記憶されている基準モデルと比較し、画像から物体が写っている領域を検知し、出力する。ここで、基準モデルとは物体の写っていない背景のみの画像を表すモデルである。以降、ここでの処理詳細を、図を用いて説明する。
The detailed flow of step S100 will be described below using FIG. FIG. 4 is a flowchart illustrating an example of detailed processing in step S100.
Step S101:
First, the
Step S102:
The object
If the setting has been completed, the process branches to S104.
If the setting of the shared area is incomplete, the process branches to S103 to set the shared area.
Step S103:
The object
Step S104:
The object
図5は、撮像装置110で人物を撮像したときに画像取得部101が取得した画像の一例を示す図である。なお、図中の右側の領域(R)が視野共有領域であるとする。A及びBは、認識対象の人物である。
図6は、記憶装置11に記憶されている基準モデルとなる背景画像の一例を示す図である。図6の例では、物体が写っていない状態で画像取得部101により取得された画像である。
基準モデルは図6の背景画像を図7で示す様に、所定のブロック単位で分割しブロック毎に画像特徴量を記憶したものである。図7は、基準モデルの一例を示す図である。一例を示すと、物体領域検知部102は、画像を8×8のブロックに分割し、ブロック内の64画素の画像を用いてDCT(離散コサイン変換)処理を行う。処理結果であるDCT係数の一部を特徴量とし記憶する。物体領域検知部102は、図5に示す画像においても同様に、8×8画素のブロックに分割し、ブロック毎にDCT処理を行い、特徴量を求める。物体領域検知部102ブロック毎に求めた特徴量と基準モデル中の対応するブロックの特徴量との距離Dを以下の(式1)により求める。
D=at・|X−Xb| (式1)
但し、X及びXbは、それぞれ、各ブロックの画像特徴量によって構成される特徴ベクトルである。aは、物体領域の判定を行うための所定の判別ベクトルである。・は、ベクトル内積演算である。||は、絶対値演算である。
物体領域検知部102は、上記(式1)により求めた距離Dが所定の閾値以上である場合、そのブロックを1に、所定の閾値よりも小さいブロックを0として2値画像を求める。1のブロックを黒、0のブロックを白として、図5及び図6の画像から得られる結果を図8に示す。図8は、物体領域検知部102が抽出した動体領域を示す画像の一例を示す図である。2値画像中の、黒の部分は物体が存在するブロック、白の部分は物体が存在しない背景のみのブロックを示す。
なお、記憶装置11に記憶された基準モデルの更新は、物体領域検知部102の結果から物体が存在しない背景のみと判定されたブロックにおいて行う。例えば、画像取得部101で取得した画像街頭ブロックの特徴量と、記憶装置11に記憶された基準モデルの特徴量との加重平均により行う。
FIG. 5 is a diagram illustrating an example of an image acquired by the
FIG. 6 is a diagram illustrating an example of a background image serving as a reference model stored in the
The reference model is obtained by dividing the background image of FIG. 6 in predetermined block units and storing image feature amounts for each block, as shown in FIG. FIG. 7 is a diagram illustrating an example of the reference model. As an example, the object
D = a t · | X- Xb | ( Equation 1)
However, X and Xb are feature vectors each constituted by the image feature amount of each block. a is a predetermined discrimination vector for determining the object region. -Is a vector dot product operation. || is an absolute value calculation.
When the distance D obtained by the above (Equation 1) is equal to or greater than a predetermined threshold, the object
Note that the reference model stored in the
ステップS105:
物体領域検知部102は、ステップS104で求めた2値画像において、値が1である物体が存在するブロックが、ステップS103で設定された視野共有領域に存在しているかどうかを判定する。視野共有領域に動体領域が存在している場合、ステップS200へ分岐する。存在していない場合はステップS200を踏まずにステップS300へと分岐する。
画像処理装置200も同様のフローを行う。図9は、図5と同時刻に撮像装置210で撮影したときに画像取得部201が取得した画像の一例を示す図である。なお、図中の左側の領域(S)が視野共有領域である。Bは、認識対象の人物である。また、図10は、図9においてステップS104を行った際に得られる結果の一例を示す図である。
Step S105:
The object
The
次に、図11を用いてステップS200の詳細なフローを説明する。図11は、ステップS200の詳細な処理の一例を示すフローチャートである。
ステップS201:
物体領域検知部102より出力された2値画像を負荷推定部103が取得する。
負荷推定部103は、取得した2値画像を用いて、動体領域の面積を判定する。例えば、負荷推定部103は、2値画像中の全ブロック数のうち、動体領域である値が1のブロックの総数を求めることで面積を算出する。
ステップS202:
認識領域限定部104は、負荷推定部103によりステップS200で求められた画像中の動体領域の面積を、通信部106を介し、視野を共有する画像処理装置200へ送信する。同様にして、画像処理装置200の認識領域限定部204は通信部206を介し、動体領域の面積情報を画像処理装置100へ送信する。ここで、通信部206から通信部106へ送信される動体領域の面積情報は、画像取得部201が取得した画像を基に、負荷推定部203が算出した動体領域の面積情報である。
Next, the detailed flow of step S200 is demonstrated using FIG. FIG. 11 is a flowchart illustrating an example of detailed processing in step S200.
Step S201:
The
The
Step S202:
The recognition
ステップS203:
認識領域限定部104は、画像処理装置200の動体領域の面積情報を通信部106から取得する。そして、認識領域限定部104は、負荷推定部103により算出された動体領域の面積情報と前記取得した動体領域の面積情報とを比較する。ここで、面積を2値画像中の動体領域のブロックの総数で求めている場合、認識領域限定部104は、ブロック数の比較をすればよい。
負荷推定部103により算出された動体領域の面積の方が大きいと判定された場合、ステップS204へ分岐する。画像処理装置200から取得した動体領域の面積の方が大きいと判定された場合、ステップS205へ分岐する。
ステップS204:
認識領域限定部104は、ステップS203で自身の画像中の動体領域の面積の方が、画像処理装置200の画像中の動体領域の面積よりも大きいと判断し、共有領域以外のみ物体認識処理を行うよう、領域を限定する。
Step S203:
The recognition
If it is determined that the area of the moving object region calculated by the
Step S204:
In step S203, the recognition
ステップS205:
認識領域限定部104は、ステップS203で自身の画像中の動体領域の面積の方が、画像処理装置200の画像中の動体領域の面積よりも小さいと判断し、画像全領域(全範囲)で物体認識処理を行うよう、領域指定する。
図8、図10の例の場合、画像処理装置100の画像中の動体領域の面積の方が、画像処理装置200の画像中の動体領域の面積よりも大きい。したがって、画像処理装置100は、共有領域以外のみ物体認識処理を行うよう物体認識範囲を視野共有領域を除いた領域に設定する。逆に、画像処理装置200は、共有領域も含めて、全領域、物体認識処理を行うよう判断する。
Step S205:
In step S203, the recognition
8 and 10, the area of the moving object area in the image of the
次にステップS300の処理の一例を説明する。
ステップS300:
物体認識部105は、記憶装置11に記憶されている物体辞書を用いて、画像取得部101から出力された画像に所望の物体が写っているかどうかを確認する。その際、ステップS200で、物体認識部105で認識する領域を共有領域も含んだ全領域か、共有領域を省いた領域か、切り替えられている。
本実施形態では、認識する物体として人物を想定し、物体認識は非特許文献1で提案されている方法を適用することができる。物体領域検知部102で動体領域と判定された領域、かつ、認識領域限定部104で限定した領域に対し、非特許文献1で提案されている方法を適用する。
上記の動作を画像処理装置200でも同様に同時に行うことで、画像処理装置100と画像処理装置と200で、共有領域に存在する物体の物体認識処理を処理負荷が低い方が行うように調停することができる。したがって、画像処理装置間で物体認識処理の負荷を分散させることができる。
Next, an example of the process of step S300 will be described.
Step S300:
The
In the present embodiment, a person is assumed as an object to be recognized, and the method proposed in Non-Patent Document 1 can be applied to object recognition. The method proposed in Non-Patent Document 1 is applied to the region determined as the moving object region by the object
By performing the above operation in the
<実施形態2>
図12は、実施形態2の画像処理システムのシステム構成等の一例を示す図である。本実施形態では、画像中から特定人物の顔認証を行う画像処理システムを例に説明を行う。
撮像装置310は、ビデオカメラ等の画像を撮像する装置であり、撮像レンズ、及び、光電変換を行って画素信号を生成する撮像素子から構成される。なお、撮像装置310が撮像した画像は、画像取得部301に入力される。
画像取得部301は、撮像装置310により撮像された画像を取得する。
物体領域検知部302は、画像取得部301により取得された画像中から特定の画像領域を抽出する。
本実施形態においては、物体領域検知部302は、画像取得部301により取得された画像中から人物の顔領域を抽出する。
負荷推定部303は、物体領域検知部302で抽出された画像領域から、物体認識部305で認識処理を行う際の処理負荷を推定する。
認識領域限定部304は、負荷推定部303で推定された処理負荷量を、通信部306を介し画像処理装置400へ処理負荷量を送信する。逆に、認識領域限定部304は、画像処理装置400から処理負荷量が送信されてきた場合は、負荷推定部303で推定された処理負荷量と比較する。そして、認識領域限定部304は、画像処理装置300と画像処理装置400とでどちらの処理負荷が軽いか判断し、画像処理装置400に対し処理の可否応答を返信する。認識領域限定部304は、通信部306から受け取った可否応答、若しくは自身の比較結果に応じて、物体認識部305で認識処理をする領域を限定する。送信動作、受信動作どちらを主体で行うかは自動又は手動で切換えられるものとする。
物体認識部305は、物体領域検知部302で抽出された特定の画像領域に所望の物体が写っているかどうかを認識して検知する。
本実施形態では、物体認識部305は、物体領域検知部302で抽出された人物の顔領域に特定人物が写っているか顔認証を行う。
通信部306は、処理負荷量、可否応答を送受信する。
<Embodiment 2>
FIG. 12 is a diagram illustrating an example of a system configuration and the like of the image processing system according to the second embodiment. In the present embodiment, an image processing system that performs face authentication of a specific person from an image will be described as an example.
The
The
The object
In the present embodiment, the object
The
The recognition
The
In the present embodiment, the
The
同様にして、撮像装置410は、ビデオカメラ等の画像を撮像する装置であり、撮像レンズ、及び、光電変換を行って画素信号を生成する撮像素子から構成される。なお、撮像した画像は画像取得部401に入力される。
画像取得部401は、撮像装置410により撮像された画像を取得する。
物体領域検知部402は、画像取得部401により取得された画像中から特定の画像領域を抽出する。
本実施形態においては、物体領域検知部402は、画像取得部401により取得された画像中から人物の顔領域を抽出する。
負荷推定部403は、物体領域検知部402で抽出された画像領域から、物体認識部405で認識処理を行う際の処理負荷を推定する。
認識領域限定部404は、負荷推定部403で推定された処理負荷量を、通信部406を介し画像処理装置300へ処理負荷量を送信する。逆に、認識領域限定部404は、画像処理装置300から処理負荷量が送信されてきた場合は、負荷推定部403で推定された処理負荷量と比較する。認識領域限定部404は、画像処理装置400と画像処理装置300とでどちらの処理負荷が軽いか判断し、画像処理装置300に対し処理の可否応答を返信する。認識領域限定部404は、通信部406から受け取った可否応答、若しくは自身の比較結果に応じて、物体認識部405で認識処理をする領域を限定する。送信動作、受信動作どちらを主体で行うかは自動又は手動で切換えられるものとする。
物体認識部405は、物体領域検知部402で抽出された特定の画像領域に所望の物体が写っているかどうかを認識して検知する。
本実施形態では、物体認識部405は、物体領域検知部402で抽出された人物の顔領域に特定人物が写っているか顔認証を行う。
通信部406は、処理負荷と可否応答を送受信する。
Similarly, the
The
The object
In the present embodiment, the object
The
The recognition
The
In the present embodiment, the
The
図13は、実施形態2の概要を示すフローチャートである。以下順を追って説明する。
ステップS400:
まず、物体領域検知部302は、画像取得部301により取得された画像から、人物の顔領域を抽出する。更に物体領域検知部302は、共有領域において、顔領域が存在しているか判定を行う。
ステップS500:
負荷推定部303は、人物の顔領域の総数を計上し、物体認識部305での処理負荷を推定する。負荷推定部303は、推定した処理負荷情報を用い、画像処理装置300、400間でどちらの処理負荷が高いか調停を行う。処理負荷が高い画像処理装置の認識領域限定部は、ステップS600で行う物体認識処理の領域を限定する。
ステップS600:
物体認識部305は、ステップS500で決定した物体認識すべき領域に、特定の人物が写っているか顔認証を行う。
以上、画像処理装置300は、ステップS400からステップS600までの処理を画像取得部301で入力された入力画像ごとに繰り返す。画像処理装置400も同様に、ステップS400からステップS600までの処理を画像取得部401で取得した入力画像ごとに繰り返す。
FIG. 13 is a flowchart illustrating an outline of the second embodiment. The following will be described in order.
Step S400:
First, the object
Step S500:
The
Step S600:
The
As described above, the
以下、図14を用いてステップS400の詳細フローを説明する。図14は、ステップS400の詳細な処理の一例を示すフローチャートである。
ステップS401:
まず、画像取得部301は、ビデオカメラ等の撮像装置310により撮像した画像を取得する。ここで取得した画像は、例えば8ビットの画素により構成される、2次元配列のデータであり、R、G、B、3つの面で構成される。また、画像取得部301は、RGBデータを輝度データに変換し、輝度画像を以後の処理に用いてもよい。また、本実施形態においては動画を取り扱うことを想定し、処理はフレーム単位で実施する。よって、ここで得る画像とはフレームごとの静止画像である。
ステップS402:
物体領域検知部302は、画像取得部301が取得する画像中の、どの領域が隣接する視野を供した撮像装置間の共有領域であるかを、設定したかどうか判定する。
設定が完了しているならばS404へ分岐する。
共有領域の設定が未完了であるならば、共有領域を設定すべく、S403へ分岐する。
Hereinafter, the detailed flow of step S400 will be described with reference to FIG. FIG. 14 is a flowchart illustrating an example of detailed processing in step S400.
Step S401:
First, the
Step S402:
The object
If the setting is completed, the process branches to S404.
If the setting of the shared area is incomplete, the process branches to S403 to set the shared area.
ステップS403:
画像取得部301が出力した画像中で、隣接する撮像装置と視野を共有している領域を設定する。
ステップS404:
物体領域検知部302は、画像取得部301から出力された画像に対し、実施形態1のステップS104とステップS300と同様の処理を施すことで、画像から人物の顔領域を検出する。
ステップS405:
物体領域検知部302は、ステップS404で求めた顔領域ブロックが、ステップS403で設定された共有領域に存在しているかどうかを判定する。共有領域に物体領域が存在している場合ステップS500へ分岐する。存在していない場合はステップS500、を踏まずにステップS600へと分岐する。
Step S403:
In the image output by the
Step S404:
The object
Step S405:
The object
次に、図15、図16を用いてステップS500の詳細なフローを説明する。図15は、画像処理装置300の処理の一例を示すフローチャートである。図16は、画像処理装置400の処理の一例を示すフローチャートである。まず、図15について説明する。
ステップS501:
負荷推定部303は、物体領域検知部302より出力された顔領域が抽出された画像を取得する。
負荷推定部303は、取得した画像を用いて、輪郭切出しを行い画像中の人物の顔の総数を判定する。
ステップS502:
認識領域限定部304は、負荷推定部303によりステップS400で求められた画像中の顔の総数を、通信部306を介し、撮像装置310と視野を共有する撮像装置410の画像を処理する画像処理装置400へ送信する。
ステップS503:
通信部306は、画像処理装置400から重なり領域の処理可否応答を受信し、認識領域限定部304へ送る。
ステップS504:
認識領域限定部304は、画像処理装置400の共有領域を物体認識可能か処理可否応答を通信部306から取得する。応答が可であればS505へ分岐する。応答が否であればS506へ分岐する。
ステップS505:
認識領域限定部304は、ステップS504で画像処理装置400が共有領域中の顔認証処理を行うと判断し、共有領域以外のみ物体認識処理を行うよう、物体認識範囲を視野共有領域を除いた領域に設定する。
ステップS506:
認識領域限定部304は、ステップS503で画像処理装置400が共有領域中の顔認証処理を行わないと判断し、画像全領域(全範囲)で物体認識処理を行うよう、領域指定する。
Next, the detailed flow of step S500 is demonstrated using FIG. 15, FIG. FIG. 15 is a flowchart illustrating an example of processing of the
Step S501:
The
The
Step S502:
The recognition
Step S503:
The
Step S504:
The recognition
Step S505:
In step S504, the recognition
Step S506:
In step S503, the recognition
以上、画像処理装置400の詳細フローを説明した。次に、図16について説明する。図15と同一番号のフローは同様の処理を行う。
ステップS507:
画像処理装置400の認識領域限定部404は、通信部406から画像処理装置300の顔領域の総数情報を受信する。
ステップS508:
認識領域限定部404は、受信した画像処理装置300の顔領域の総数情報と、負荷推定部403が計上した顔領域の総数情報と、を比較し、どちらの総数が多いか判定する。画像処理装置400の画像中の顔領域の総数の方が多い場合はステップS509へ分岐する。画像処理装置300の画像中の顔領域の総数の方が多い場合はステップS510へ分岐する。同数の場合はどちらへ分岐してもよい。本実施形態では、ステップS510へ分岐するものとする。
ステップS509:
認識領域限定部404は、通信部406を介して画像処理装置300に対し、共有領域の顔認証処理は行わないことを送信する。
ステップS510:
認識領域限定部404は、通信部406を介して画像処理装置300に対し、共有領域の顔認証処理を行うことを送信する。
The detailed flow of the
Step S507:
The recognition
Step S508:
The recognition
Step S509:
The recognition
Step S510:
The recognition
次にステップS600の詳細な処理の一例を説明する。
ステップS600:
物体認識部305は、記憶装置11に記憶されている物体辞書を用いて、画像取得部301から出力された画像に所望の物体が写っているかどうかを確認する。その際、ステップS500で、物体認識部305で認識する領域を共有領域も含んだ全領域か、共有領域を省いた領域か切り替えられている。なお、ステップS400からステップS500までを踏まずにステップS600へ分岐する系の場合、物体認識部305で認識する領域が共有領域も含んだ全領域に設定される。
本実施形態では、認識する物体として特定人物の顔を想定し、人物認証は後述の参考文献1等で提案されている方法が適用できる。
まず、顔領域は、ステップS404で抽出されている。物体認識部305は、抽出された顔領域に対して、目鼻等の特徴点を抽出する。物体認識部305は、抽出した特徴点を基準にし、正規化した大きさに顔領域を切出し、濃淡情報等を特徴量として抽出する。予め、認識対象人物の顔の画像から抽出される個人特徴量が、記憶装置11に記憶されている。物体認識部305は、記憶装置11に記憶されている個人特徴量と、画像から抽出した特徴量との類似度を算出することにより、個人の顔識別が可能となる。
上記の動作により画像処理装置300と画像処理装置400とで、共有領域に存在する物体の物体認識処理を処理負荷が低い方が行うように調停することが可能になる。
参考文献1 山口.福井,"顔向きや表情の変化にロバストな顔認識システム"Smartface"",電子情報通信学会論文誌,D−II,Vol.J84−D−II,No.6,pp.1045‐1052,2001−6
Next, an example of detailed processing in step S600 will be described.
Step S600:
The
In the present embodiment, a face of a specific person is assumed as an object to be recognized, and a method proposed in Reference Document 1 described later can be applied to person authentication.
First, the face area is extracted in step S404. The
With the above operation, the
Reference 1 Yamaguchi. Fukui, “Face recognition system“ Smartface ”” robust to changes in face orientation and facial expression, IEICE Transactions, D-II, Vol. J84-D-II, no. 6, pp. 1045-1052, 2001-6
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
以上、上述した各実施形態によれば、複数台の撮像装置を用いて広域を撮像する装置において、認識処理負荷が高い撮像装置の処理負荷を軽減することが可能になる。即ち、認識処理の負荷が高く、処理が間に合わずにフレーム落ちしてしまっていた頻度を軽減することができる。つまり、認識処理を軽減することができる。 As mentioned above, according to each embodiment mentioned above, in the device which picturizes a wide area using a plurality of imaging devices, it becomes possible to reduce processing load of an imaging device with high recognition processing load. That is, it is possible to reduce the frequency with which the load of recognition processing is high and the frames are dropped because the processing is not in time. That is, recognition processing can be reduced.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
10 制御装置、100 画像処理装置、110 撮像装置
DESCRIPTION OF
Claims (8)
前記第一の撮像手段で撮像された画像を取得する取得手段と、
前記取得手段で取得された画像から物体領域を検知する検知手段と、
取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知手段で検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断手段と、
前記判断手段において前記画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断手段で前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定手段と、
前記設定手段で設定された物体認識範囲に物体が写っているか否か物体認識を行う認識手段と、
を有する画像処理装置。 Second image processing that performs image processing of an image captured by the first imaging means and performs image processing of an image captured by the second imaging means that shares a part of the imaging range with the first imaging means An image processing apparatus that communicates with an apparatus,
Obtaining means for obtaining an image captured by the first imaging means;
Detection means for detecting an object region from the image acquired by the acquisition means;
If the object area detected by the detection means is in a shared area between the first imaging means and the second imaging means in the acquired image, the object recognition processing of the shared area is performed as the image processing. Determination means for determining which of the apparatus and the second image processing apparatus to perform;
When it is determined by the image processing apparatus that the determination means performs the object recognition range, the object recognition range is set to the entire range of the image, and when it is determined by the determination means that the second image processing apparatus performs the object recognition, Setting means for setting a range to an area excluding the shared area from the entire range of the image;
Recognizing means for recognizing whether or not an object is reflected in the object recognition range set by the setting means;
An image processing apparatus.
前記判断手段は、前記算出手段で算出された前記面積を前記第二の画像処理装置に送信し、前記第二の画像処理装置が算出した前記第二の撮像手段で撮像された画像中の動体領域の面積を前記第二の画像処理装置より受信し、前記算出した面積の方が前記受信した面積より大きい場合は、前記共有領域の物体認識処理を前記第二の画像処理装置で行うと判断し、前記算出した面積の方が前記受信した面積より大きくない場合は、前記共有領域の物体認識処理を前記画像処理装置で行うと判断する請求項1記載の画像処理装置。 A calculation means for calculating the area of the moving object region in the acquired image;
The determination unit transmits the area calculated by the calculation unit to the second image processing device, and the moving object in the image captured by the second imaging unit calculated by the second image processing device. When the area of the area is received from the second image processing apparatus and the calculated area is larger than the received area, it is determined that the object recognition process of the shared area is performed by the second image processing apparatus. The image processing apparatus according to claim 1, wherein when the calculated area is not larger than the received area, the image processing apparatus determines that the object recognition process of the shared area is performed by the image processing apparatus.
前記判断手段は、前記計上手段で計上された前記顔領域の総数を前記第二の画像処理装置に送信し、前記第二の画像処理装置において前記共有領域の物体認識が可能か否かの可否応答を前記第二の画像処理装置より受信し、受信した可否応答が前記共有領域の物体認識が可能であることを示していた場合は、前記共有領域の物体認識処理を前記第二の画像処理装置で行うと判断し、受信した可否応答が前記共有領域の物体認識が可能でないことを示していた場合は、前記共有領域の物体認識処理を前記画像処理装置で行うと判断する請求項1記載の画像処理装置。 A counting means for counting the total number of face regions in the image;
The determination means transmits the total number of the face areas counted by the counting means to the second image processing apparatus, and whether or not the second image processing apparatus can recognize the object in the shared area. If the response is received from the second image processing apparatus and the received availability response indicates that the object recognition of the shared area is possible, the object recognition process of the shared area is changed to the second image processing. 2. The apparatus according to claim 1, wherein the image recognition apparatus determines that the image processing apparatus performs object recognition processing of the shared area when it is determined that the apparatus recognizes that the object is not recognized in the shared area. Image processing apparatus.
前記第一の画像処理装置は、
前記第一の撮像手段で撮像された画像を取得する取得手段と、
前記取得手段で取得された画像から物体領域を検知する検知手段と、
取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知手段で検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記第一の画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断手段と、
前記判断手段で前記第一の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断手段で前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定手段と、
前記設定手段で設定された物体認識範囲に物体が写っているか否か物体認識を行う認識手段と、
を有し、
前記第二の画像処理装置は、
前記第二の撮像手段で撮像された画像を取得する取得手段と、
前記取得手段で取得された画像から物体領域を検知する検知手段と、
取得した前記画像中の前記第二の撮像手段と前記第一の撮像手段との共有領域に、前記検知手段で検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記第二の画像処理装置と前記第一の画像処理装置との何れで行うかを判断する判断手段と、
前記判断手段で前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断手段で前記第一の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定手段と、
前記設定手段で設定された物体認識範囲に物体が写っているか否か物体認識を行う認識手段と、
を有する画像処理システム。 An image processing apparatus that performs image processing of an image captured by the first imaging means, and a second image processor that performs image processing of an image captured by the second imaging means that partially shares the imaging range with the first imaging means. An image processing system comprising: a second image processing apparatus;
The first image processing apparatus includes:
Obtaining means for obtaining an image captured by the first imaging means;
Detection means for detecting an object region from the image acquired by the acquisition means;
If the object area detected by the detection means is in the shared area between the first imaging means and the second imaging means in the acquired image, the object recognition processing of the shared area is performed in the first area. Determination means for determining which of the image processing apparatus and the second image processing apparatus to perform,
When it is determined by the determination means that the first image processing apparatus is used, the object recognition range is set to the entire range of the image, and when the determination means is determined to be performed by the second image processing apparatus Setting means for setting the object recognition range to an area excluding the shared area from the entire range of the image;
Recognizing means for recognizing whether or not an object is reflected in the object recognition range set by the setting means;
Have
The second image processing apparatus includes:
Obtaining means for obtaining an image captured by the second imaging means;
Detection means for detecting an object region from the image acquired by the acquisition means;
When the object area detected by the detection means is in the shared area between the second imaging means and the first imaging means in the acquired image, the object recognition processing of the shared area is performed in the second area. Determining means for determining which of the image processing apparatus and the first image processing apparatus to perform,
When it is determined by the determination means that the second image processing apparatus is used, the object recognition range is set to the entire range of the image, and when the determination means is determined to be performed by the first image processing apparatus Setting means for setting the object recognition range to an area excluding the shared area from the entire range of the image;
Recognizing means for recognizing whether or not an object is reflected in the object recognition range set by the setting means;
An image processing system.
前記第一の撮像手段で撮像された画像を取得する取得ステップと、
前記取得ステップで取得された画像から物体領域を検知する検知ステップと、
取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知ステップで検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断ステップと、
前記判断ステップにおいて前記画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断ステップで前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定ステップと、
前記設定ステップで設定された物体認識範囲に物体が写っているか否か物体認識を行う認識ステップと、
を含む画像処理方法。 Second image processing that performs image processing of an image captured by the first imaging means and performs image processing of an image captured by the second imaging means that shares a part of the imaging range with the first imaging means An image processing method executed by an image processing apparatus that communicates with an apparatus,
An acquisition step of acquiring an image captured by the first imaging means;
A detection step of detecting an object region from the image acquired in the acquisition step;
When the object area detected in the detection step is in a shared area between the first imaging means and the second imaging means in the acquired image, the object recognition processing of the shared area is performed as the image processing. A determination step of determining which of the apparatus and the second image processing apparatus to perform;
If it is determined in the determination step that the image processing apparatus performs the object recognition range, the object recognition range is set to the entire range of the image. If it is determined in the determination step that the second image processing apparatus performs the object recognition, A setting step for setting a range to an area excluding the shared area from the entire range of the image;
A recognition step of performing object recognition as to whether or not an object is reflected in the object recognition range set in the setting step;
An image processing method including:
前記第一の画像処理装置が、前記第一の撮像手段で撮像された画像を取得する取得ステップと、
前記第一の画像処理装置が、前記取得ステップで取得された画像から物体領域を検知する検知ステップと、
前記第一の画像処理装置が、取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知ステップで検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記第一の画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断ステップと、
前記第一の画像処理装置が、前記判断ステップで前記第一の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断ステップで前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定ステップと、
前記第一の画像処理装置が、前記設定ステップで設定された物体認識範囲に物体が写っているか否か物体認識を行う認識ステップと、
前記第二の画像処理装置が、前記第二の撮像手段で撮像された画像を取得する取得ステップと、
前記第二の画像処理装置が、前記取得ステップで取得された画像から物体領域を検知する検知ステップと、
前記第二の画像処理装置が、取得した前記画像中の前記第二の撮像手段と前記第一の撮像手段との共有領域に、前記検知ステップで検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記第二の画像処理装置と前記第一の画像処理装置との何れで行うかを判断する判断ステップと、
前記第二の画像処理装置が、前記判断ステップで前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断ステップで前記第一の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定ステップと、
前記第二の画像処理装置が、前記設定ステップで設定された物体認識範囲に物体が写っているか否か物体認識を行う認識ステップと、
を含む画像処理方法。 An image processing apparatus that performs image processing of an image captured by the first imaging means, and a second image processor that performs image processing of an image captured by the second imaging means that partially shares the imaging range with the first imaging means. An image processing method in an image processing system, comprising:
The first image processing device acquires an image captured by the first imaging unit; and
The first image processing apparatus detects an object region from the image acquired in the acquisition step;
When the first image processing apparatus includes the object area detected in the detection step in the shared area of the first imaging means and the second imaging means in the acquired image, the sharing A determination step of determining whether the object recognition processing of the area is performed by the first image processing apparatus or the second image processing apparatus;
When the first image processing device is determined to be performed by the first image processing device in the determination step, the object recognition range is set to the entire range of the image, and the second image is determined in the determination step. When it is determined to be performed by the processing device, a setting step for setting an object recognition range to an area excluding the shared area from the entire range of the image;
A recognition step in which the first image processing apparatus performs object recognition as to whether or not an object is reflected in the object recognition range set in the setting step;
An acquisition step in which the second image processing apparatus acquires an image captured by the second imaging unit;
The second image processing apparatus detects a object region from the image acquired in the acquisition step;
When the second image processing apparatus includes the object region detected in the detection step in a shared region between the second imaging unit and the first imaging unit in the acquired image, the sharing A determination step of determining whether the object recognition processing of the region is performed by the second image processing device or the first image processing device;
When the second image processing device is determined to be performed by the second image processing device in the determination step, the object recognition range is set to the entire range of the image, and the first image is determined in the determination step. When it is determined to be performed by the processing device, a setting step for setting an object recognition range to an area excluding the shared area from the entire range of the image;
A recognition step in which the second image processing apparatus performs object recognition as to whether or not an object is reflected in the object recognition range set in the setting step;
An image processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011094108A JP5777389B2 (en) | 2011-04-20 | 2011-04-20 | Image processing apparatus, image processing system, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011094108A JP5777389B2 (en) | 2011-04-20 | 2011-04-20 | Image processing apparatus, image processing system, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012226583A true JP2012226583A (en) | 2012-11-15 |
JP5777389B2 JP5777389B2 (en) | 2015-09-09 |
Family
ID=47276672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011094108A Active JP5777389B2 (en) | 2011-04-20 | 2011-04-20 | Image processing apparatus, image processing system, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5777389B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014116912A (en) * | 2012-12-12 | 2014-06-26 | Canon Inc | Image processing apparatus, control method for image processing apparatus, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0636031A (en) * | 1992-07-15 | 1994-02-10 | N T T Data Tsushin Kk | Moving body tracking system utilizing computer |
JPH1115981A (en) * | 1997-06-19 | 1999-01-22 | Matsushita Electric Ind Co Ltd | Wide area monitoring device and system therefor |
JP2005027085A (en) * | 2003-07-03 | 2005-01-27 | Minolta Co Ltd | Image pick-up system |
JP2005347942A (en) * | 2004-06-01 | 2005-12-15 | Konica Minolta Holdings Inc | Monitor system, control program of monitor system and monitoring device |
JP2006211696A (en) * | 2000-02-28 | 2006-08-10 | Hitachi Kokusai Electric Inc | Object detecting method and object detecting system |
JP2011070576A (en) * | 2009-09-28 | 2011-04-07 | Toshiba Corp | Image processor and image processing method |
-
2011
- 2011-04-20 JP JP2011094108A patent/JP5777389B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0636031A (en) * | 1992-07-15 | 1994-02-10 | N T T Data Tsushin Kk | Moving body tracking system utilizing computer |
JPH1115981A (en) * | 1997-06-19 | 1999-01-22 | Matsushita Electric Ind Co Ltd | Wide area monitoring device and system therefor |
JP2006211696A (en) * | 2000-02-28 | 2006-08-10 | Hitachi Kokusai Electric Inc | Object detecting method and object detecting system |
JP2005027085A (en) * | 2003-07-03 | 2005-01-27 | Minolta Co Ltd | Image pick-up system |
JP2005347942A (en) * | 2004-06-01 | 2005-12-15 | Konica Minolta Holdings Inc | Monitor system, control program of monitor system and monitoring device |
JP2011070576A (en) * | 2009-09-28 | 2011-04-07 | Toshiba Corp | Image processor and image processing method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014116912A (en) * | 2012-12-12 | 2014-06-26 | Canon Inc | Image processing apparatus, control method for image processing apparatus, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5777389B2 (en) | 2015-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI686774B (en) | Human face live detection method and device | |
JP7130368B2 (en) | Information processing device and information processing system | |
US9646212B2 (en) | Methods, devices and systems for detecting objects in a video | |
TWI430186B (en) | Image processing apparatus and image processing method | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
JP4642128B2 (en) | Image processing method, image processing apparatus and system | |
KR101687530B1 (en) | Control method in image capture system, control apparatus and a computer-readable storage medium | |
US8538079B2 (en) | Apparatus capable of detecting location of object contained in image data and detection method thereof | |
KR20140095333A (en) | Method and apparratus of tracing object on image | |
TWI721786B (en) | Face verification method, device, server and readable storage medium | |
US8923552B2 (en) | Object detection apparatus and object detection method | |
US11315360B2 (en) | Live facial recognition system and method | |
JP6266946B2 (en) | Surveillance camera and image monitoring device | |
JP2010140315A (en) | Object detection device | |
JP5777389B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP7104523B2 (en) | Information processing equipment, systems, information processing equipment control methods, and programs | |
JP6187261B2 (en) | Person feature amount extraction system, server, and person feature amount extraction method | |
JP5769468B2 (en) | Object detection system and object detection method | |
JP7255173B2 (en) | Human detection device and human detection method | |
JP3894038B2 (en) | Image processing apparatus, protrusion detection method and program for image processing apparatus | |
JP2019192155A (en) | Image processing device, photographing device, image processing method, and program | |
JP4530175B2 (en) | Image processing apparatus, protrusion detection method and program for image processing apparatus | |
WO2023276050A1 (en) | Image processing system and imaging device | |
KR101426039B1 (en) | Apparatus and method for extracting feature point to recognize face/object | |
JP2006309799A (en) | Image processing device, protrusion detection method for it, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150210 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150707 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5777389 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |