JP2012226583A - Image processor, image processing system and image processing method - Google Patents

Image processor, image processing system and image processing method Download PDF

Info

Publication number
JP2012226583A
JP2012226583A JP2011094108A JP2011094108A JP2012226583A JP 2012226583 A JP2012226583 A JP 2012226583A JP 2011094108 A JP2011094108 A JP 2011094108A JP 2011094108 A JP2011094108 A JP 2011094108A JP 2012226583 A JP2012226583 A JP 2012226583A
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
area
object recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011094108A
Other languages
Japanese (ja)
Other versions
JP5777389B2 (en
Inventor
Yasuhiro Kato
康宏 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011094108A priority Critical patent/JP5777389B2/en
Publication of JP2012226583A publication Critical patent/JP2012226583A/en
Application granted granted Critical
Publication of JP5777389B2 publication Critical patent/JP5777389B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce recognition processing.SOLUTION: The image processor includes: acquisition means for acquiring an image picked up by first image pickup means; detection means for detecting an object area from the image acquired by the acquisition means; determination means for, when there exists the object area detected by the detection means in a shared area between the first image pickup means and second image pickup means in the image, determining whether to execute the object recognition processing of the shared area by an image processor or a second image processor; setting means for, when it is determined that the object recognition processing should be executed by the image processor by the determination means, setting an object recognition range to the whole range of the image, and for, when it is determined that the object recognition processing should be executed by the second image processor by the determination means, setting the object recognition range to an area obtained by excluding the shared area from the whole range of the image; and recognition means for executing object recognition to determine whether or not an object is projected in the object recognition range set by the setting means.

Description

本発明は、画像処理装置、画像処理システム及び画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing system, and an image processing method.

従来、店舗やビルの天井、街頭、工場等において、防犯等のセキュリティー向上を目的として、監視用途にカメラ設置が進んでいる。更にコンビニエンスストア、ショッピングモールやスーパーマーケット等の店舗等や公共の場において、監視カメラを用いて通行する人数をカウントしたり、人流を解析したり、マーケティング目的として監視カメラを用いるシステムも提案されている。
このような画像中における、顔等の被写体を検出する技術は、以下に示す非特許文献1で提案されている。非特許文献1では、ニューラル・ネットワークにより画像中の顔パターンを検出している。以下、非特許文献1の技術を用いた装置の動作について簡単に説明する。まず、装置は、顔の検出を対象とする画像とをメモリに読み込み、顔と照合する所定の領域を読み込んだ画像中から切り出す。そして、装置は、切り出した領域の画素値の分布を入力としてニューラル・ネットワークによる演算で一つの出力を得る。このとき、ニューラル・ネットワークの重み、閾値が膨大な顔画像パターンと非顔画像パターンとにより予め学習されており、例えば、装置は、ニューラル・ネットワークの出力が0以上なら顔、それ以外は非顔であると判別する。そして、装置は、ニューラル・ネットワークの入力である顔と照合する画像パターンの切り出し位置を、画像全域から縦横順次に走査していくことにより、画像中から顔を検出する。また、装置は、様々な大きさの顔の検出に対応するため、画像を所定の割合で順次縮小し、それに対して前述した顔検出の走査を行うようにしている。
なお、非特許文献1は画像から顔を検出する技術について説明しているが、画像からその他の物体を検出する場合についても同様に実現することができる。
2. Description of the Related Art Conventionally, cameras have been installed for surveillance purposes in stores and building ceilings, streets, factories, and the like for the purpose of improving security such as crime prevention. In addition, systems have been proposed that use surveillance cameras to count people passing through convenience stores, shopping malls, supermarkets, etc., and public places, analyze human flow, and use surveillance cameras for marketing purposes. .
A technique for detecting a subject such as a face in such an image has been proposed in Non-Patent Document 1 shown below. In Non-Patent Document 1, a face pattern in an image is detected by a neural network. The operation of the apparatus using the technique of Non-Patent Document 1 will be briefly described below. First, the apparatus reads an image targeted for face detection into a memory, and cuts out a predetermined area to be compared with the face from the read image. Then, the apparatus receives a distribution of pixel values of the cut out region as an input, and obtains one output by calculation using a neural network. At this time, the weights and thresholds of the neural network are learned in advance using face image patterns and non-face image patterns, and, for example, the device is a face if the output of the neural network is 0 or more, and is non-face otherwise It is determined that Then, the apparatus detects the face from the image by scanning the cutout position of the image pattern to be collated with the face which is an input of the neural network in the vertical and horizontal directions from the entire image. Further, in order to cope with detection of faces of various sizes, the apparatus sequentially reduces the image at a predetermined ratio and performs the above-described face detection scanning.
Note that Non-Patent Document 1 describes a technique for detecting a face from an image, but the same can be realized when detecting other objects from an image.

また、カメラで撮像された映像から物体を認識する技術として特許文献1が開示されている。特許文献1の技術は、まず背景差分を行い背景画像と変化のある領域を絞り込み、動領域を検出した後、その領域を詳細に評価して個別の物体を識別する技術である。
一方、撮像範囲の大規模化に伴い複数台のカメラを設置し、同時に監視、撮影するシステムが実用化されている。しかし複数のカメラの画像を同時に上記のような顔検出、物体認識処理等を行うには相当量の処理性能が必要となる。したがって、如何に処理負荷を軽減するかという問題が存在する。この問題を解決する技術として、例えば特許文献2の技術が提案されている。特許文献2の技術は、検出したい特定人物をマーキングしておき、その人物がある画像から検出されたタイミングでその後の検出処理を打ち切るといった技術である。また、特許文献3では、全ての画像中の特定物体を検出、計上し、その計数に基づいて最適な画像のみを選別してサーバーに送信しその後の処理をするという技術が提案されている。
Patent Document 1 is disclosed as a technique for recognizing an object from an image captured by a camera. The technique of Patent Document 1 is a technique in which a background difference is first performed to narrow down a region that has changed from a background image, a moving region is detected, and then that region is evaluated in detail to identify individual objects.
On the other hand, with the enlargement of the imaging range, a system for installing a plurality of cameras and simultaneously monitoring and photographing them has been put into practical use. However, a considerable amount of processing performance is required to simultaneously perform face detection, object recognition processing, and the like as described above on a plurality of camera images. Therefore, there is a problem of how to reduce the processing load. As a technique for solving this problem, for example, the technique of Patent Document 2 has been proposed. The technique of Patent Document 2 is a technique in which a specific person to be detected is marked and the subsequent detection process is terminated at the timing when the person is detected from an image. Further, Japanese Patent Laid-Open No. 2004-228867 proposes a technique in which a specific object in all images is detected and counted, only an optimal image is selected based on the count, transmitted to a server, and then processed.

特開2003−157440号公報JP 2003-157440 A 特開2007−243270号公報JP 2007-243270 A 特開2005−347942号公報Japanese Patent Laid-Open No. 2005-347942

Rowley et al,"Neural network−based face detection",IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,VOL.20,NO.1,JANUARY 1998Rowley et al, “Neural network-based face detection”, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20, NO. 1, JANUARY 1998

しかし、上述した技術は、特定人物の監視用途に限定していたり、認識処理を行う画像を限定したりしている。例えば、全ての画像で、全ての動体に対して認識処理する必要がある場合に上述した技術を適用すると、認識処理に負荷がかかり、認識処理におけるフレーム落ち等が発生する問題があった。   However, the above-described technique is limited to the monitoring application of a specific person, or the image to be recognized is limited. For example, when the above-described technique is applied when it is necessary to perform recognition processing for all moving objects in all images, there is a problem that a load is applied to the recognition processing and frames are dropped in the recognition processing.

本発明はこのような問題点に鑑みなされたもので、認識処理を軽減することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to reduce recognition processing.

そこで、本発明は、第一の撮像手段で撮像された画像の画像処理を行い、前記第一の撮像手段と撮像範囲を一部共有する第二の撮像手段で撮像された画像の画像処理を行う第二の画像処理装置と通信を行う画像処理装置であって、前記第一の撮像手段で撮像された画像を取得する取得手段と、前記取得手段で取得された画像から物体領域を検知する検知手段と、取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知手段で検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断手段と、前記判断手段において前記画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断手段で前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定手段と、前記設定手段で設定された物体認識範囲に物体が写っているか否か物体認識を行う認識手段と、を有する。   Therefore, the present invention performs image processing of an image picked up by the first image pickup means, and performs image processing of an image picked up by the second image pickup means that partially shares the image pickup range with the first image pickup means. An image processing apparatus that communicates with a second image processing apparatus to perform, an acquisition unit that acquires an image captured by the first imaging unit, and an object region that is detected from the image acquired by the acquisition unit When the object area detected by the detection means is in a shared area between the detection means and the first imaging means and the second imaging means in the acquired image, the object recognition processing of the shared area A determination means for determining whether the image processing apparatus or the second image processing apparatus performs the image recognition, and the determination means determines that the image recognition apparatus performs the object recognition range for the entire image. Set to the range, If the second image processing apparatus determines that the object recognition range is to be set, the object recognition range is set to an area excluding the shared area from the entire range of the image, and the object recognition range set by the setting means Recognizing means for recognizing whether an object is captured or not.

本発明によれば、認識処理を軽減することができる。   According to the present invention, recognition processing can be reduced.

画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image processing apparatus. 実施形態1の画像処理システムのシステム構成等の一例を示す図である。1 is a diagram illustrating an example of a system configuration and the like of an image processing system according to a first embodiment. 実施形態1の概要を示すフローチャートである。3 is a flowchart illustrating an overview of the first embodiment. ステップS100の詳細な処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process of step S100. 撮像装置110で人物を撮像したときに画像取得部101が取得した画像の一例を示す図である。6 is a diagram illustrating an example of an image acquired by an image acquisition unit 101 when a person is imaged by the imaging device 110. FIG. 記憶装置に記憶されている基準モデルとなる背景画像の一例を示す図である。It is a figure which shows an example of the background image used as the reference | standard model memorize | stored in the memory | storage device. 基準モデルの一例を示す図である。It is a figure which shows an example of a reference | standard model. 物体領域検知部102が抽出した動体領域を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows the moving body area | region which the object area | region detection part 102 extracted. 図5と同時刻に撮像装置210で撮影したときに画像取得部201が取得した画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of an image acquired by an image acquisition unit 201 when the image capturing apparatus 210 captures an image at the same time as in FIG. 5. 図9においてステップS104を行った際に得られる結果の一例を示す図である。It is a figure which shows an example of the result obtained when step S104 is performed in FIG. ステップS200の詳細な処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process of step S200. 実施形態2の画像処理システムのシステム構成等の一例を示す図である。FIG. 4 is a diagram illustrating an example of a system configuration and the like of an image processing system according to a second embodiment. 実施形態2の概要を示すフローチャートである。10 is a flowchart illustrating an overview of the second embodiment. ステップS400の詳細な処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process of step S400. 画像処理装置300の処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of processing of the image processing apparatus 300. 画像処理装置400の処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of processing of the image processing apparatus 400.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
図1は、画像処理装置のハードウェア構成の一例を示す図である。
図1に示されるように、画像処理装置100は、ハードウェア構成として、制御装置10と、記憶装置11と、ネットワークインタフェース装置12と、を含む。制御装置10は、CPU等であって、記憶装置11に記憶されているプログラムに基づき処理を実行することによって、後述する画像処理装置100のソフトウェア構成及びフローチャートの処理を実現する。記憶装置11は、ROM、RAM、HD等であって、プログラムを記憶したり、画像を記憶したりする。ネットワークインタフェース装置12は、画像処理装置100をネットワークに接続する。
画像処理装置200も画像処理装置100のハードウェア構成と同様である。
なお、本実施形態では、後述する図2の画像処理装置の機能はソフトウェアとして実装されているものとして説明を行うが、後述する図2の画像処理装置の各機能を専用のハードウェアとして画像処理装置に実装してもよい。また、本実施形態では、後述するように、撮像装置と画像処理装置とを別体のものとして説明を行うが、同一の装置内であってもよい。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the image processing apparatus.
As shown in FIG. 1, the image processing apparatus 100 includes a control device 10, a storage device 11, and a network interface device 12 as a hardware configuration. The control device 10 is a CPU or the like, and executes processing based on a program stored in the storage device 11, thereby realizing a software configuration of the image processing device 100 described later and processing of a flowchart. The storage device 11 is a ROM, RAM, HD, or the like, and stores a program or an image. The network interface device 12 connects the image processing device 100 to a network.
The image processing apparatus 200 has the same hardware configuration as the image processing apparatus 100.
In the present embodiment, the function of the image processing apparatus in FIG. 2 described later is described as being implemented as software. However, each function of the image processing apparatus in FIG. You may mount in an apparatus. In the present embodiment, as will be described later, the imaging apparatus and the image processing apparatus are described as separate units, but they may be in the same apparatus.

図2は、実施形態1の画像処理システムのシステム構成等の一例を示す図である。
図2に示されるように、画像処理システムは、視野、又は撮像範囲を一部共有する撮像装置110、210と、撮像装置で撮像された画像中から人物を検出する画像処理装置100、200と、を含む。ここで、撮像装置110は、第一の撮像手段の一例である。また、撮像装置210は、第二の撮像手段の一例である。また、画像処理装置100は、第一の画像処理装置の一例である。また、画像処理装置200は、第二の画像処理装置の一例である。
撮像装置110は、ビデオカメラ等の画像を撮像する装置であり、撮像レンズ、及び、光電変換を行って画素信号を生成する撮像素子から構成される。なお、撮像した画像は画像取得部101に入力される。
画像処理装置100は、本実施形態で提案する画像処理装置である。
画像取得部101は、撮像装置110により撮像された画像を取得する。
物体領域検知部102は、画像取得部101により取得された画像中から特定の画像領域を抽出する。
本実施形態においては、物体領域検知部102は、画像取得部101により取得された画像中から動体領域を抽出する。
負荷推定部103は、物体領域検知部102で抽出された画像領域から、物体認識部105で認識処理を行う際の処理負荷を推定する。
認識領域限定部104は、負荷推定部103で推定された処理負荷量と通信部106より受信した処理負荷量とを比較して、物体認識部105で認識処理をする領域を限定する。
物体認識部105は、物体領域検知部102で抽出された特定の画像領域に所望の物体が写っているかどうかを認識して検知する。
本実施形態においては、物体認識部105は、物体領域検知部102で抽出された特定の画像領域から人体領域を抽出する。
通信部106は、画像処理装置200の通信部206と処理負荷量を送受信する。
FIG. 2 is a diagram illustrating an example of a system configuration and the like of the image processing system according to the first embodiment.
As shown in FIG. 2, the image processing system includes imaging devices 110 and 210 that partially share a visual field or imaging range, and image processing devices 100 and 200 that detect a person from images captured by the imaging device. ,including. Here, the imaging device 110 is an example of a first imaging unit. The imaging device 210 is an example of a second imaging unit. The image processing apparatus 100 is an example of a first image processing apparatus. The image processing apparatus 200 is an example of a second image processing apparatus.
The imaging device 110 is a device that captures an image, such as a video camera, and includes an imaging lens and an imaging element that performs photoelectric conversion to generate a pixel signal. The captured image is input to the image acquisition unit 101.
The image processing apparatus 100 is an image processing apparatus proposed in this embodiment.
The image acquisition unit 101 acquires an image captured by the imaging device 110.
The object area detection unit 102 extracts a specific image area from the image acquired by the image acquisition unit 101.
In the present embodiment, the object area detection unit 102 extracts a moving object area from the image acquired by the image acquisition unit 101.
The load estimation unit 103 estimates a processing load when the object recognition unit 105 performs a recognition process from the image region extracted by the object region detection unit 102.
The recognition area limiting unit 104 compares the processing load amount estimated by the load estimation unit 103 with the processing load amount received from the communication unit 106, and limits the region in which the object recognition unit 105 performs the recognition process.
The object recognition unit 105 recognizes and detects whether or not a desired object is shown in the specific image region extracted by the object region detection unit 102.
In the present embodiment, the object recognition unit 105 extracts a human body region from the specific image region extracted by the object region detection unit 102.
The communication unit 106 transmits and receives a processing load amount with the communication unit 206 of the image processing apparatus 200.

同様にして、撮像装置210は、ビデオカメラ等の画像を撮像する装置であり、撮像レンズ、及び、光電変換を行って画素信号を生成する撮像素子から構成される。なお、撮像した画像は画像取得部201に入力される。
画像処理装置200は、本実施形態で提案する画像処理装置である。
画像取得部201は、撮像装置210により撮像された画像を取得する。
物体領域検知部202は、画像取得部201により取得された画像中から特定の画像領域を抽出する。
本実施形態においては、物体領域検知部202は、画像取得部201により取得された画像中から動体領域を抽出する。
負荷推定部203は、物体領域検知部202で抽出された画像領域から、物体認識部205で認識処理を行う際の処理負荷を推定する。
認識領域限定部204は、負荷推定部203で推定された処理負荷量と通信部206より受信した処理負荷量とを比較して、物体認識部205で認識処理をする領域を限定する。
物体認識部205は、物体領域検知部202で抽出された特定の画像領域に所望の物体が写っているかどうかを認識して検知する。
本実施形態においては、物体認識部205は、物体領域検知部202で抽出された特定の画像領域から人体領域を抽出する。
通信部206は、画像処理装置100の通信部106と処理負荷量を送受信する。
Similarly, the imaging device 210 is a device that captures an image, such as a video camera, and includes an imaging lens and an imaging device that performs photoelectric conversion to generate a pixel signal. The captured image is input to the image acquisition unit 201.
The image processing apparatus 200 is an image processing apparatus proposed in this embodiment.
The image acquisition unit 201 acquires an image captured by the imaging device 210.
The object area detection unit 202 extracts a specific image area from the image acquired by the image acquisition unit 201.
In the present embodiment, the object area detection unit 202 extracts a moving object area from the image acquired by the image acquisition unit 201.
The load estimation unit 203 estimates the processing load when the object recognition unit 205 performs the recognition process from the image region extracted by the object region detection unit 202.
The recognition area limiting unit 204 compares the processing load amount estimated by the load estimation unit 203 with the processing load amount received from the communication unit 206, and limits the region where the object recognition unit 205 performs the recognition process.
The object recognition unit 205 recognizes and detects whether or not a desired object is shown in the specific image region extracted by the object region detection unit 202.
In the present embodiment, the object recognition unit 205 extracts a human body region from the specific image region extracted by the object region detection unit 202.
The communication unit 206 transmits and receives processing load amounts to and from the communication unit 106 of the image processing apparatus 100.

図3は、実施形態1の概要を示すフローチャートである。以下順を追って説明する。なお以下のフローチャートの動作は、画像処理装置100の場合を説明するが、画像処理装置200も同様の動作をする。
ステップS100:
まず、物体領域検知部102は、画像取得部101により取得された画像から、動体領域を抽出する。ここで、動体領域とは、物体領域検知部102が、同画角の、物体が写りこんでいない背景のみの画像と差分をとることで、抽出できる領域である。更に物体領域検知部102は、視野共有領域において、動体領域が存在しているか判定を行う。
ステップS200:
負荷推定部103は、動体領域より、物体認識部105での処理負荷を推定する。認識領域限定部104は、推定された処理負荷情報を用い、画像処理装置100、200間でどちらの処理負荷が高いか調停を行う。処理負荷が高い画像処理装置の認識領域限定部は、ステップS300で行う物体認識処理の領域を限定する。
ステップS300:
物体認識部105は、ステップS200で決定された物体認識すべき領域に、所望の物体が写っているか物体認識を行う。
以上、画像処理装置100は、ステップS100からステップS300までの処理を画像取得部101で入力された入力画像ごとに繰り返す。画像処理装置200も同様に、ステップS100からステップS300までの処理を画像取得部201で取得した入力画像ごとに繰り返す。
FIG. 3 is a flowchart showing an outline of the first embodiment. The following will be described in order. The operation of the following flowchart will be described for the image processing apparatus 100, but the image processing apparatus 200 also performs the same operation.
Step S100:
First, the object area detection unit 102 extracts a moving object area from the image acquired by the image acquisition unit 101. Here, the moving object area is an area that can be extracted by the object area detecting unit 102 taking a difference from an image of only the background having the same angle of view and no object. Furthermore, the object area detection unit 102 determines whether a moving object area exists in the view sharing area.
Step S200:
The load estimation unit 103 estimates the processing load in the object recognition unit 105 from the moving object region. The recognition area limiting unit 104 uses the estimated processing load information to mediate which processing load is higher between the image processing apparatuses 100 and 200. The recognition area limiting unit of the image processing apparatus with a high processing load limits the area of the object recognition process performed in step S300.
Step S300:
The object recognizing unit 105 recognizes whether a desired object is shown in the area to be recognized determined in step S200.
As described above, the image processing apparatus 100 repeats the processing from step S100 to step S300 for each input image input by the image acquisition unit 101. Similarly, the image processing apparatus 200 repeats the processing from step S100 to step S300 for each input image acquired by the image acquisition unit 201.

以下、図4を用いてステップS100の詳細フローを説明する。図4は、ステップS100の詳細な処理の一例を示すフローチャートである。
ステップS101:
まず、画像取得部101は、ビデオカメラ等の撮像装置110により撮像した画像を取得する。ここで取得した画像は、例えば8ビットの画素により構成される、2次元配列のデータであり、R、G、B、3つの面で構成される。また、画像取得部101は、RGBデータを輝度データに変換し、輝度画像を以後の処理に用いてもよい。また、本実施形態においては動画を取り扱うことを想定し、処理はフレーム単位で実施する。よって、ここで得る画像とはフレームごとの静止画像である。
ステップS102:
物体領域検知部102は、画像取得部101が取得する画像中の、どの領域が隣接する視野を供した撮像装置間の共有領域であるかを、設定したかどうか判定する。
設定が完了しているならばS104へ分岐する。
共有領域の設定が未完了であるならば、共有領域を設定すべく、S103へ分岐する。
ステップS103:
物体領域検知部102は、画像取得部101が出力した画像中で、隣接する撮像装置と視野を共有している領域を設定する。
ステップS104:
物体領域検知部102は、画像取得部101から出力された画像に対し、記憶装置11に記憶されている基準モデルと比較し、画像から物体が写っている領域を検知し、出力する。ここで、基準モデルとは物体の写っていない背景のみの画像を表すモデルである。以降、ここでの処理詳細を、図を用いて説明する。
The detailed flow of step S100 will be described below using FIG. FIG. 4 is a flowchart illustrating an example of detailed processing in step S100.
Step S101:
First, the image acquisition unit 101 acquires an image captured by the imaging device 110 such as a video camera. The acquired image is, for example, two-dimensional array data composed of 8-bit pixels, and is composed of R, G, B, and three surfaces. The image acquisition unit 101 may convert RGB data into luminance data and use the luminance image for subsequent processing. In the present embodiment, it is assumed that a moving image is handled, and the processing is performed in units of frames. Therefore, the image obtained here is a still image for each frame.
Step S102:
The object region detection unit 102 determines whether or not a region in the image acquired by the image acquisition unit 101 is set as a shared region between imaging devices provided with adjacent fields of view.
If the setting has been completed, the process branches to S104.
If the setting of the shared area is incomplete, the process branches to S103 to set the shared area.
Step S103:
The object area detection unit 102 sets an area that shares a field of view with an adjacent imaging device in the image output by the image acquisition unit 101.
Step S104:
The object region detection unit 102 compares the image output from the image acquisition unit 101 with a reference model stored in the storage device 11, and detects and outputs a region in which an object is captured from the image. Here, the reference model is a model representing an image of only a background where no object is shown. Hereinafter, details of the process will be described with reference to the drawings.

図5は、撮像装置110で人物を撮像したときに画像取得部101が取得した画像の一例を示す図である。なお、図中の右側の領域(R)が視野共有領域であるとする。A及びBは、認識対象の人物である。
図6は、記憶装置11に記憶されている基準モデルとなる背景画像の一例を示す図である。図6の例では、物体が写っていない状態で画像取得部101により取得された画像である。
基準モデルは図6の背景画像を図7で示す様に、所定のブロック単位で分割しブロック毎に画像特徴量を記憶したものである。図7は、基準モデルの一例を示す図である。一例を示すと、物体領域検知部102は、画像を8×8のブロックに分割し、ブロック内の64画素の画像を用いてDCT(離散コサイン変換)処理を行う。処理結果であるDCT係数の一部を特徴量とし記憶する。物体領域検知部102は、図5に示す画像においても同様に、8×8画素のブロックに分割し、ブロック毎にDCT処理を行い、特徴量を求める。物体領域検知部102ブロック毎に求めた特徴量と基準モデル中の対応するブロックの特徴量との距離Dを以下の(式1)により求める。
D=at・|X−Xb| (式1)
但し、X及びXbは、それぞれ、各ブロックの画像特徴量によって構成される特徴ベクトルである。aは、物体領域の判定を行うための所定の判別ベクトルである。・は、ベクトル内積演算である。||は、絶対値演算である。
物体領域検知部102は、上記(式1)により求めた距離Dが所定の閾値以上である場合、そのブロックを1に、所定の閾値よりも小さいブロックを0として2値画像を求める。1のブロックを黒、0のブロックを白として、図5及び図6の画像から得られる結果を図8に示す。図8は、物体領域検知部102が抽出した動体領域を示す画像の一例を示す図である。2値画像中の、黒の部分は物体が存在するブロック、白の部分は物体が存在しない背景のみのブロックを示す。
なお、記憶装置11に記憶された基準モデルの更新は、物体領域検知部102の結果から物体が存在しない背景のみと判定されたブロックにおいて行う。例えば、画像取得部101で取得した画像街頭ブロックの特徴量と、記憶装置11に記憶された基準モデルの特徴量との加重平均により行う。
FIG. 5 is a diagram illustrating an example of an image acquired by the image acquisition unit 101 when a person is imaged by the imaging device 110. It is assumed that the right side region (R) in the figure is a visual field sharing region. A and B are persons to be recognized.
FIG. 6 is a diagram illustrating an example of a background image serving as a reference model stored in the storage device 11. In the example of FIG. 6, the image is acquired by the image acquisition unit 101 in a state where no object is captured.
The reference model is obtained by dividing the background image of FIG. 6 in predetermined block units and storing image feature amounts for each block, as shown in FIG. FIG. 7 is a diagram illustrating an example of the reference model. As an example, the object region detection unit 102 divides an image into 8 × 8 blocks, and performs DCT (discrete cosine transform) processing using an image of 64 pixels in the block. A part of the DCT coefficient that is the processing result is stored as a feature amount. Similarly, in the image shown in FIG. 5, the object region detection unit 102 divides the block into 8 × 8 pixel blocks, performs DCT processing for each block, and obtains a feature amount. The distance D between the feature amount obtained for each block of the object region detection unit 102 and the feature amount of the corresponding block in the reference model is obtained by the following (Equation 1).
D = a t · | X- Xb | ( Equation 1)
However, X and Xb are feature vectors each constituted by the image feature amount of each block. a is a predetermined discrimination vector for determining the object region. -Is a vector dot product operation. || is an absolute value calculation.
When the distance D obtained by the above (Equation 1) is equal to or greater than a predetermined threshold, the object area detection unit 102 obtains a binary image by setting the block to 1 and setting the block smaller than the predetermined threshold to 0. FIG. 8 shows the results obtained from the images of FIGS. 5 and 6, assuming that 1 block is black and 0 block is white. FIG. 8 is a diagram illustrating an example of an image showing a moving object region extracted by the object region detecting unit 102. In the binary image, a black part indicates a block in which an object exists, and a white part indicates a block only in the background in which no object exists.
Note that the reference model stored in the storage device 11 is updated in a block that is determined from the result of the object region detection unit 102 only as a background where no object exists. For example, this is performed by a weighted average of the feature amount of the image street block acquired by the image acquisition unit 101 and the feature amount of the reference model stored in the storage device 11.

ステップS105:
物体領域検知部102は、ステップS104で求めた2値画像において、値が1である物体が存在するブロックが、ステップS103で設定された視野共有領域に存在しているかどうかを判定する。視野共有領域に動体領域が存在している場合、ステップS200へ分岐する。存在していない場合はステップS200を踏まずにステップS300へと分岐する。
画像処理装置200も同様のフローを行う。図9は、図5と同時刻に撮像装置210で撮影したときに画像取得部201が取得した画像の一例を示す図である。なお、図中の左側の領域(S)が視野共有領域である。Bは、認識対象の人物である。また、図10は、図9においてステップS104を行った際に得られる結果の一例を示す図である。
Step S105:
The object area detection unit 102 determines whether or not a block in which an object having a value of 1 exists in the visual field sharing area set in step S103 in the binary image obtained in step S104. If there is a moving object area in the view sharing area, the process branches to step S200. If not, the process branches to step S300 without step S200.
The image processing apparatus 200 performs the same flow. FIG. 9 is a diagram illustrating an example of an image acquired by the image acquisition unit 201 when the image capturing apparatus 210 captures an image at the same time as in FIG. In addition, the left area (S) in the figure is a visual field sharing area. B is a person to be recognized. FIG. 10 is a diagram illustrating an example of results obtained when step S104 is performed in FIG.

次に、図11を用いてステップS200の詳細なフローを説明する。図11は、ステップS200の詳細な処理の一例を示すフローチャートである。
ステップS201:
物体領域検知部102より出力された2値画像を負荷推定部103が取得する。
負荷推定部103は、取得した2値画像を用いて、動体領域の面積を判定する。例えば、負荷推定部103は、2値画像中の全ブロック数のうち、動体領域である値が1のブロックの総数を求めることで面積を算出する。
ステップS202:
認識領域限定部104は、負荷推定部103によりステップS200で求められた画像中の動体領域の面積を、通信部106を介し、視野を共有する画像処理装置200へ送信する。同様にして、画像処理装置200の認識領域限定部204は通信部206を介し、動体領域の面積情報を画像処理装置100へ送信する。ここで、通信部206から通信部106へ送信される動体領域の面積情報は、画像取得部201が取得した画像を基に、負荷推定部203が算出した動体領域の面積情報である。
Next, the detailed flow of step S200 is demonstrated using FIG. FIG. 11 is a flowchart illustrating an example of detailed processing in step S200.
Step S201:
The load estimation unit 103 acquires the binary image output from the object region detection unit 102.
The load estimation unit 103 determines the area of the moving object region using the acquired binary image. For example, the load estimation unit 103 calculates the area by calculating the total number of blocks having a value of 1 as a moving object region among the total number of blocks in the binary image.
Step S202:
The recognition area limiting unit 104 transmits the area of the moving object area in the image obtained by the load estimation unit 103 in step S200 to the image processing apparatus 200 sharing the visual field via the communication unit 106. Similarly, the recognition area limiting unit 204 of the image processing apparatus 200 transmits area information of the moving object area to the image processing apparatus 100 via the communication unit 206. Here, the moving body region area information transmitted from the communication unit 206 to the communication unit 106 is the moving body region area information calculated by the load estimation unit 203 based on the image acquired by the image acquisition unit 201.

ステップS203:
認識領域限定部104は、画像処理装置200の動体領域の面積情報を通信部106から取得する。そして、認識領域限定部104は、負荷推定部103により算出された動体領域の面積情報と前記取得した動体領域の面積情報とを比較する。ここで、面積を2値画像中の動体領域のブロックの総数で求めている場合、認識領域限定部104は、ブロック数の比較をすればよい。
負荷推定部103により算出された動体領域の面積の方が大きいと判定された場合、ステップS204へ分岐する。画像処理装置200から取得した動体領域の面積の方が大きいと判定された場合、ステップS205へ分岐する。
ステップS204:
認識領域限定部104は、ステップS203で自身の画像中の動体領域の面積の方が、画像処理装置200の画像中の動体領域の面積よりも大きいと判断し、共有領域以外のみ物体認識処理を行うよう、領域を限定する。
Step S203:
The recognition area limiting unit 104 acquires area information of the moving object area of the image processing apparatus 200 from the communication unit 106. Then, the recognition region limiting unit 104 compares the area information of the moving body region calculated by the load estimating unit 103 with the acquired area information of the moving body region. Here, when the area is obtained by the total number of blocks of the moving object region in the binary image, the recognition region limiting unit 104 may compare the number of blocks.
If it is determined that the area of the moving object region calculated by the load estimation unit 103 is larger, the process branches to step S204. If it is determined that the area of the moving object area acquired from the image processing apparatus 200 is larger, the process branches to step S205.
Step S204:
In step S203, the recognition area limiting unit 104 determines that the area of the moving object area in its own image is larger than the area of the moving object area in the image of the image processing apparatus 200, and performs object recognition processing only for areas other than the shared area. Limit the area to do so.

ステップS205:
認識領域限定部104は、ステップS203で自身の画像中の動体領域の面積の方が、画像処理装置200の画像中の動体領域の面積よりも小さいと判断し、画像全領域(全範囲)で物体認識処理を行うよう、領域指定する。
図8、図10の例の場合、画像処理装置100の画像中の動体領域の面積の方が、画像処理装置200の画像中の動体領域の面積よりも大きい。したがって、画像処理装置100は、共有領域以外のみ物体認識処理を行うよう物体認識範囲を視野共有領域を除いた領域に設定する。逆に、画像処理装置200は、共有領域も含めて、全領域、物体認識処理を行うよう判断する。
Step S205:
In step S203, the recognition region limiting unit 104 determines that the area of the moving object region in its own image is smaller than the area of the moving object region in the image of the image processing apparatus 200, and the entire image region (entire range). An area is designated to perform object recognition processing.
8 and 10, the area of the moving object area in the image of the image processing apparatus 100 is larger than the area of the moving object area in the image of the image processing apparatus 200. Therefore, the image processing apparatus 100 sets the object recognition range to an area excluding the view sharing area so that the object recognition process is performed only in areas other than the sharing area. Conversely, the image processing apparatus 200 determines to perform object recognition processing for the entire area including the shared area.

次にステップS300の処理の一例を説明する。
ステップS300:
物体認識部105は、記憶装置11に記憶されている物体辞書を用いて、画像取得部101から出力された画像に所望の物体が写っているかどうかを確認する。その際、ステップS200で、物体認識部105で認識する領域を共有領域も含んだ全領域か、共有領域を省いた領域か、切り替えられている。
本実施形態では、認識する物体として人物を想定し、物体認識は非特許文献1で提案されている方法を適用することができる。物体領域検知部102で動体領域と判定された領域、かつ、認識領域限定部104で限定した領域に対し、非特許文献1で提案されている方法を適用する。
上記の動作を画像処理装置200でも同様に同時に行うことで、画像処理装置100と画像処理装置と200で、共有領域に存在する物体の物体認識処理を処理負荷が低い方が行うように調停することができる。したがって、画像処理装置間で物体認識処理の負荷を分散させることができる。
Next, an example of the process of step S300 will be described.
Step S300:
The object recognition unit 105 uses the object dictionary stored in the storage device 11 to check whether or not a desired object is reflected in the image output from the image acquisition unit 101. At this time, in step S200, the area recognized by the object recognition unit 105 is switched to the entire area including the shared area or the area excluding the shared area.
In the present embodiment, a person is assumed as an object to be recognized, and the method proposed in Non-Patent Document 1 can be applied to object recognition. The method proposed in Non-Patent Document 1 is applied to the region determined as the moving object region by the object region detection unit 102 and the region limited by the recognition region limitation unit 104.
By performing the above operation in the image processing apparatus 200 in the same manner at the same time, the image processing apparatus 100 and the image processing apparatus 200 perform arbitration so that the object recognition processing of the object existing in the shared area is performed by a lower processing load. be able to. Therefore, the object recognition processing load can be distributed among the image processing apparatuses.

<実施形態2>
図12は、実施形態2の画像処理システムのシステム構成等の一例を示す図である。本実施形態では、画像中から特定人物の顔認証を行う画像処理システムを例に説明を行う。
撮像装置310は、ビデオカメラ等の画像を撮像する装置であり、撮像レンズ、及び、光電変換を行って画素信号を生成する撮像素子から構成される。なお、撮像装置310が撮像した画像は、画像取得部301に入力される。
画像取得部301は、撮像装置310により撮像された画像を取得する。
物体領域検知部302は、画像取得部301により取得された画像中から特定の画像領域を抽出する。
本実施形態においては、物体領域検知部302は、画像取得部301により取得された画像中から人物の顔領域を抽出する。
負荷推定部303は、物体領域検知部302で抽出された画像領域から、物体認識部305で認識処理を行う際の処理負荷を推定する。
認識領域限定部304は、負荷推定部303で推定された処理負荷量を、通信部306を介し画像処理装置400へ処理負荷量を送信する。逆に、認識領域限定部304は、画像処理装置400から処理負荷量が送信されてきた場合は、負荷推定部303で推定された処理負荷量と比較する。そして、認識領域限定部304は、画像処理装置300と画像処理装置400とでどちらの処理負荷が軽いか判断し、画像処理装置400に対し処理の可否応答を返信する。認識領域限定部304は、通信部306から受け取った可否応答、若しくは自身の比較結果に応じて、物体認識部305で認識処理をする領域を限定する。送信動作、受信動作どちらを主体で行うかは自動又は手動で切換えられるものとする。
物体認識部305は、物体領域検知部302で抽出された特定の画像領域に所望の物体が写っているかどうかを認識して検知する。
本実施形態では、物体認識部305は、物体領域検知部302で抽出された人物の顔領域に特定人物が写っているか顔認証を行う。
通信部306は、処理負荷量、可否応答を送受信する。
<Embodiment 2>
FIG. 12 is a diagram illustrating an example of a system configuration and the like of the image processing system according to the second embodiment. In the present embodiment, an image processing system that performs face authentication of a specific person from an image will be described as an example.
The imaging device 310 is a device that captures an image, such as a video camera, and includes an imaging lens and an imaging element that performs photoelectric conversion to generate a pixel signal. Note that an image captured by the imaging device 310 is input to the image acquisition unit 301.
The image acquisition unit 301 acquires an image captured by the imaging device 310.
The object area detection unit 302 extracts a specific image area from the image acquired by the image acquisition unit 301.
In the present embodiment, the object area detection unit 302 extracts a human face area from the image acquired by the image acquisition unit 301.
The load estimation unit 303 estimates a processing load when the object recognition unit 305 performs the recognition process from the image region extracted by the object region detection unit 302.
The recognition area limiting unit 304 transmits the processing load amount estimated by the load estimation unit 303 to the image processing apparatus 400 via the communication unit 306. Conversely, when the processing load amount is transmitted from the image processing apparatus 400, the recognition area limiting unit 304 compares the processing load amount estimated by the load estimation unit 303. Then, the recognition area limiting unit 304 determines which processing load is lighter between the image processing apparatus 300 and the image processing apparatus 400 and returns a process availability response to the image processing apparatus 400. The recognition area limiting unit 304 limits the area on which the object recognition unit 305 performs recognition processing according to the availability response received from the communication unit 306 or the comparison result of itself. It is assumed that whether the transmission operation or the reception operation is mainly performed can be switched automatically or manually.
The object recognition unit 305 recognizes and detects whether or not a desired object is shown in the specific image region extracted by the object region detection unit 302.
In the present embodiment, the object recognition unit 305 performs face authentication to determine whether a specific person is captured in the face area of the person extracted by the object region detection unit 302.
The communication unit 306 transmits and receives the processing load amount and the availability response.

同様にして、撮像装置410は、ビデオカメラ等の画像を撮像する装置であり、撮像レンズ、及び、光電変換を行って画素信号を生成する撮像素子から構成される。なお、撮像した画像は画像取得部401に入力される。
画像取得部401は、撮像装置410により撮像された画像を取得する。
物体領域検知部402は、画像取得部401により取得された画像中から特定の画像領域を抽出する。
本実施形態においては、物体領域検知部402は、画像取得部401により取得された画像中から人物の顔領域を抽出する。
負荷推定部403は、物体領域検知部402で抽出された画像領域から、物体認識部405で認識処理を行う際の処理負荷を推定する。
認識領域限定部404は、負荷推定部403で推定された処理負荷量を、通信部406を介し画像処理装置300へ処理負荷量を送信する。逆に、認識領域限定部404は、画像処理装置300から処理負荷量が送信されてきた場合は、負荷推定部403で推定された処理負荷量と比較する。認識領域限定部404は、画像処理装置400と画像処理装置300とでどちらの処理負荷が軽いか判断し、画像処理装置300に対し処理の可否応答を返信する。認識領域限定部404は、通信部406から受け取った可否応答、若しくは自身の比較結果に応じて、物体認識部405で認識処理をする領域を限定する。送信動作、受信動作どちらを主体で行うかは自動又は手動で切換えられるものとする。
物体認識部405は、物体領域検知部402で抽出された特定の画像領域に所望の物体が写っているかどうかを認識して検知する。
本実施形態では、物体認識部405は、物体領域検知部402で抽出された人物の顔領域に特定人物が写っているか顔認証を行う。
通信部406は、処理負荷と可否応答を送受信する。
Similarly, the imaging apparatus 410 is an apparatus that captures an image such as a video camera, and includes an imaging lens and an imaging element that performs photoelectric conversion to generate a pixel signal. The captured image is input to the image acquisition unit 401.
The image acquisition unit 401 acquires an image captured by the imaging device 410.
The object area detection unit 402 extracts a specific image area from the image acquired by the image acquisition unit 401.
In the present embodiment, the object region detection unit 402 extracts a human face region from the image acquired by the image acquisition unit 401.
The load estimation unit 403 estimates a processing load when the object recognition unit 405 performs the recognition process from the image region extracted by the object region detection unit 402.
The recognition area limiting unit 404 transmits the processing load amount estimated by the load estimation unit 403 to the image processing apparatus 300 via the communication unit 406. Conversely, when the processing load amount is transmitted from the image processing apparatus 300, the recognition area limiting unit 404 compares the processing load amount estimated by the load estimation unit 403. The recognition area limiting unit 404 determines which processing load is lighter between the image processing apparatus 400 and the image processing apparatus 300, and returns a process availability response to the image processing apparatus 300. The recognition area limiting unit 404 limits the area in which the object recognition unit 405 performs recognition processing according to the availability response received from the communication unit 406 or the comparison result of itself. It is assumed that whether the transmission operation or the reception operation is mainly performed can be switched automatically or manually.
The object recognition unit 405 recognizes and detects whether or not a desired object is shown in the specific image area extracted by the object area detection unit 402.
In the present embodiment, the object recognizing unit 405 performs face authentication to determine whether a specific person appears in the face area of the person extracted by the object area detecting unit 402.
The communication unit 406 transmits / receives a processing load and availability response.

図13は、実施形態2の概要を示すフローチャートである。以下順を追って説明する。
ステップS400:
まず、物体領域検知部302は、画像取得部301により取得された画像から、人物の顔領域を抽出する。更に物体領域検知部302は、共有領域において、顔領域が存在しているか判定を行う。
ステップS500:
負荷推定部303は、人物の顔領域の総数を計上し、物体認識部305での処理負荷を推定する。負荷推定部303は、推定した処理負荷情報を用い、画像処理装置300、400間でどちらの処理負荷が高いか調停を行う。処理負荷が高い画像処理装置の認識領域限定部は、ステップS600で行う物体認識処理の領域を限定する。
ステップS600:
物体認識部305は、ステップS500で決定した物体認識すべき領域に、特定の人物が写っているか顔認証を行う。
以上、画像処理装置300は、ステップS400からステップS600までの処理を画像取得部301で入力された入力画像ごとに繰り返す。画像処理装置400も同様に、ステップS400からステップS600までの処理を画像取得部401で取得した入力画像ごとに繰り返す。
FIG. 13 is a flowchart illustrating an outline of the second embodiment. The following will be described in order.
Step S400:
First, the object area detection unit 302 extracts a human face area from the image acquired by the image acquisition unit 301. Furthermore, the object area detection unit 302 determines whether a face area exists in the shared area.
Step S500:
The load estimation unit 303 counts the total number of human face areas and estimates the processing load in the object recognition unit 305. The load estimation unit 303 uses the estimated processing load information to mediate which processing load is higher between the image processing apparatuses 300 and 400. The recognition area limiting unit of the image processing apparatus with a high processing load limits the area of the object recognition process performed in step S600.
Step S600:
The object recognizing unit 305 performs face authentication to determine whether a specific person is shown in the area to be recognized in step S500.
As described above, the image processing apparatus 300 repeats the processing from step S400 to step S600 for each input image input by the image acquisition unit 301. Similarly, the image processing apparatus 400 repeats the processing from step S400 to step S600 for each input image acquired by the image acquisition unit 401.

以下、図14を用いてステップS400の詳細フローを説明する。図14は、ステップS400の詳細な処理の一例を示すフローチャートである。
ステップS401:
まず、画像取得部301は、ビデオカメラ等の撮像装置310により撮像した画像を取得する。ここで取得した画像は、例えば8ビットの画素により構成される、2次元配列のデータであり、R、G、B、3つの面で構成される。また、画像取得部301は、RGBデータを輝度データに変換し、輝度画像を以後の処理に用いてもよい。また、本実施形態においては動画を取り扱うことを想定し、処理はフレーム単位で実施する。よって、ここで得る画像とはフレームごとの静止画像である。
ステップS402:
物体領域検知部302は、画像取得部301が取得する画像中の、どの領域が隣接する視野を供した撮像装置間の共有領域であるかを、設定したかどうか判定する。
設定が完了しているならばS404へ分岐する。
共有領域の設定が未完了であるならば、共有領域を設定すべく、S403へ分岐する。
Hereinafter, the detailed flow of step S400 will be described with reference to FIG. FIG. 14 is a flowchart illustrating an example of detailed processing in step S400.
Step S401:
First, the image acquisition unit 301 acquires an image captured by an imaging device 310 such as a video camera. The acquired image is, for example, two-dimensional array data composed of 8-bit pixels, and is composed of R, G, B, and three surfaces. The image acquisition unit 301 may convert the RGB data into luminance data and use the luminance image for subsequent processing. In the present embodiment, it is assumed that a moving image is handled, and the processing is performed in units of frames. Therefore, the image obtained here is a still image for each frame.
Step S402:
The object region detection unit 302 determines whether or not a region in the image acquired by the image acquisition unit 301 is a shared region between the imaging devices provided with adjacent fields of view.
If the setting is completed, the process branches to S404.
If the setting of the shared area is incomplete, the process branches to S403 to set the shared area.

ステップS403:
画像取得部301が出力した画像中で、隣接する撮像装置と視野を共有している領域を設定する。
ステップS404:
物体領域検知部302は、画像取得部301から出力された画像に対し、実施形態1のステップS104とステップS300と同様の処理を施すことで、画像から人物の顔領域を検出する。
ステップS405:
物体領域検知部302は、ステップS404で求めた顔領域ブロックが、ステップS403で設定された共有領域に存在しているかどうかを判定する。共有領域に物体領域が存在している場合ステップS500へ分岐する。存在していない場合はステップS500、を踏まずにステップS600へと分岐する。
Step S403:
In the image output by the image acquisition unit 301, an area sharing a field of view with an adjacent imaging device is set.
Step S404:
The object area detection unit 302 detects the face area of the person from the image by performing the same processing as in steps S104 and S300 of the first embodiment on the image output from the image acquisition unit 301.
Step S405:
The object area detection unit 302 determines whether or not the face area block obtained in step S404 exists in the shared area set in step S403. If an object area exists in the shared area, the process branches to step S500. If not, the process branches to step S600 without step S500.

次に、図15、図16を用いてステップS500の詳細なフローを説明する。図15は、画像処理装置300の処理の一例を示すフローチャートである。図16は、画像処理装置400の処理の一例を示すフローチャートである。まず、図15について説明する。
ステップS501:
負荷推定部303は、物体領域検知部302より出力された顔領域が抽出された画像を取得する。
負荷推定部303は、取得した画像を用いて、輪郭切出しを行い画像中の人物の顔の総数を判定する。
ステップS502:
認識領域限定部304は、負荷推定部303によりステップS400で求められた画像中の顔の総数を、通信部306を介し、撮像装置310と視野を共有する撮像装置410の画像を処理する画像処理装置400へ送信する。
ステップS503:
通信部306は、画像処理装置400から重なり領域の処理可否応答を受信し、認識領域限定部304へ送る。
ステップS504:
認識領域限定部304は、画像処理装置400の共有領域を物体認識可能か処理可否応答を通信部306から取得する。応答が可であればS505へ分岐する。応答が否であればS506へ分岐する。
ステップS505:
認識領域限定部304は、ステップS504で画像処理装置400が共有領域中の顔認証処理を行うと判断し、共有領域以外のみ物体認識処理を行うよう、物体認識範囲を視野共有領域を除いた領域に設定する。
ステップS506:
認識領域限定部304は、ステップS503で画像処理装置400が共有領域中の顔認証処理を行わないと判断し、画像全領域(全範囲)で物体認識処理を行うよう、領域指定する。
Next, the detailed flow of step S500 is demonstrated using FIG. 15, FIG. FIG. 15 is a flowchart illustrating an example of processing of the image processing apparatus 300. FIG. 16 is a flowchart illustrating an example of processing of the image processing apparatus 400. First, FIG. 15 will be described.
Step S501:
The load estimation unit 303 acquires an image from which the face area output from the object area detection unit 302 is extracted.
The load estimation unit 303 performs contour extraction using the acquired image and determines the total number of human faces in the image.
Step S502:
The recognition area limiting unit 304 processes the image of the imaging device 410 that shares the field of view with the imaging device 310 via the communication unit 306, using the total number of faces in the image obtained by the load estimation unit 303 in step S400. To device 400.
Step S503:
The communication unit 306 receives an overlap area processing availability response from the image processing apparatus 400 and sends it to the recognition area limiting unit 304.
Step S504:
The recognition area limiting unit 304 acquires from the communication unit 306 a response indicating whether the shared area of the image processing apparatus 400 can be recognized. If the response is acceptable, the process branches to S505. If the response is negative, the process branches to S506.
Step S505:
In step S504, the recognition area limiting unit 304 determines that the image processing apparatus 400 performs face authentication processing in the shared area, and the object recognition range is an area excluding the visual field shared area so that the object recognition process is performed only in areas other than the shared area. Set to.
Step S506:
In step S503, the recognition area limiting unit 304 determines that the image processing apparatus 400 does not perform face authentication processing in the shared area, and designates an area so that object recognition processing is performed in the entire image area (entire range).

以上、画像処理装置400の詳細フローを説明した。次に、図16について説明する。図15と同一番号のフローは同様の処理を行う。
ステップS507:
画像処理装置400の認識領域限定部404は、通信部406から画像処理装置300の顔領域の総数情報を受信する。
ステップS508:
認識領域限定部404は、受信した画像処理装置300の顔領域の総数情報と、負荷推定部403が計上した顔領域の総数情報と、を比較し、どちらの総数が多いか判定する。画像処理装置400の画像中の顔領域の総数の方が多い場合はステップS509へ分岐する。画像処理装置300の画像中の顔領域の総数の方が多い場合はステップS510へ分岐する。同数の場合はどちらへ分岐してもよい。本実施形態では、ステップS510へ分岐するものとする。
ステップS509:
認識領域限定部404は、通信部406を介して画像処理装置300に対し、共有領域の顔認証処理は行わないことを送信する。
ステップS510:
認識領域限定部404は、通信部406を介して画像処理装置300に対し、共有領域の顔認証処理を行うことを送信する。
The detailed flow of the image processing apparatus 400 has been described above. Next, FIG. 16 will be described. The same numbered flow as in FIG. 15 performs the same processing.
Step S507:
The recognition area limiting unit 404 of the image processing apparatus 400 receives the total number information of the face areas of the image processing apparatus 300 from the communication unit 406.
Step S508:
The recognition area limiting unit 404 compares the received face area total number information of the image processing apparatus 300 with the face area total number information counted by the load estimation unit 403, and determines which is larger. If the total number of face areas in the image of the image processing apparatus 400 is larger, the process branches to step S509. If the total number of face areas in the image of the image processing apparatus 300 is larger, the process branches to step S510. In the case of the same number, it may branch to either. In the present embodiment, it is assumed that the process branches to step S510.
Step S509:
The recognition area limiting unit 404 transmits that the face authentication process for the shared area is not performed to the image processing apparatus 300 via the communication unit 406.
Step S510:
The recognition area limiting unit 404 transmits to the image processing apparatus 300 that the face authentication process for the shared area is performed via the communication unit 406.

次にステップS600の詳細な処理の一例を説明する。
ステップS600:
物体認識部305は、記憶装置11に記憶されている物体辞書を用いて、画像取得部301から出力された画像に所望の物体が写っているかどうかを確認する。その際、ステップS500で、物体認識部305で認識する領域を共有領域も含んだ全領域か、共有領域を省いた領域か切り替えられている。なお、ステップS400からステップS500までを踏まずにステップS600へ分岐する系の場合、物体認識部305で認識する領域が共有領域も含んだ全領域に設定される。
本実施形態では、認識する物体として特定人物の顔を想定し、人物認証は後述の参考文献1等で提案されている方法が適用できる。
まず、顔領域は、ステップS404で抽出されている。物体認識部305は、抽出された顔領域に対して、目鼻等の特徴点を抽出する。物体認識部305は、抽出した特徴点を基準にし、正規化した大きさに顔領域を切出し、濃淡情報等を特徴量として抽出する。予め、認識対象人物の顔の画像から抽出される個人特徴量が、記憶装置11に記憶されている。物体認識部305は、記憶装置11に記憶されている個人特徴量と、画像から抽出した特徴量との類似度を算出することにより、個人の顔識別が可能となる。
上記の動作により画像処理装置300と画像処理装置400とで、共有領域に存在する物体の物体認識処理を処理負荷が低い方が行うように調停することが可能になる。
参考文献1 山口.福井,"顔向きや表情の変化にロバストな顔認識システム"Smartface"",電子情報通信学会論文誌,D−II,Vol.J84−D−II,No.6,pp.1045‐1052,2001−6
Next, an example of detailed processing in step S600 will be described.
Step S600:
The object recognition unit 305 uses the object dictionary stored in the storage device 11 to check whether a desired object is reflected in the image output from the image acquisition unit 301. At this time, in step S500, the area recognized by the object recognition unit 305 is switched between the entire area including the shared area or the area excluding the shared area. Note that in the case of a system that branches from step S400 to step S500 and branches to step S600, the region recognized by the object recognition unit 305 is set to all regions including the shared region.
In the present embodiment, a face of a specific person is assumed as an object to be recognized, and a method proposed in Reference Document 1 described later can be applied to person authentication.
First, the face area is extracted in step S404. The object recognition unit 305 extracts feature points such as eyes and nose from the extracted face area. The object recognizing unit 305 cuts out the face area to a normalized size using the extracted feature points as a reference, and extracts grayscale information and the like as feature amounts. Individual feature amounts extracted from the face image of the person to be recognized are stored in the storage device 11 in advance. The object recognizing unit 305 can identify the face of an individual by calculating the similarity between the individual feature amount stored in the storage device 11 and the feature amount extracted from the image.
With the above operation, the image processing apparatus 300 and the image processing apparatus 400 can perform arbitration so that the object recognition processing of the object existing in the shared area is performed by a lower processing load.
Reference 1 Yamaguchi. Fukui, “Face recognition system“ Smartface ”” robust to changes in face orientation and facial expression, IEICE Transactions, D-II, Vol. J84-D-II, no. 6, pp. 1045-1052, 2001-6

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

以上、上述した各実施形態によれば、複数台の撮像装置を用いて広域を撮像する装置において、認識処理負荷が高い撮像装置の処理負荷を軽減することが可能になる。即ち、認識処理の負荷が高く、処理が間に合わずにフレーム落ちしてしまっていた頻度を軽減することができる。つまり、認識処理を軽減することができる。   As mentioned above, according to each embodiment mentioned above, in the device which picturizes a wide area using a plurality of imaging devices, it becomes possible to reduce processing load of an imaging device with high recognition processing load. That is, it is possible to reduce the frequency with which the load of recognition processing is high and the frames are dropped because the processing is not in time. That is, recognition processing can be reduced.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

10 制御装置、100 画像処理装置、110 撮像装置 DESCRIPTION OF SYMBOLS 10 Control apparatus, 100 Image processing apparatus, 110 Imaging device

Claims (8)

第一の撮像手段で撮像された画像の画像処理を行い、前記第一の撮像手段と撮像範囲を一部共有する第二の撮像手段で撮像された画像の画像処理を行う第二の画像処理装置と通信を行う画像処理装置であって、
前記第一の撮像手段で撮像された画像を取得する取得手段と、
前記取得手段で取得された画像から物体領域を検知する検知手段と、
取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知手段で検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断手段と、
前記判断手段において前記画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断手段で前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定手段と、
前記設定手段で設定された物体認識範囲に物体が写っているか否か物体認識を行う認識手段と、
を有する画像処理装置。
Second image processing that performs image processing of an image captured by the first imaging means and performs image processing of an image captured by the second imaging means that shares a part of the imaging range with the first imaging means An image processing apparatus that communicates with an apparatus,
Obtaining means for obtaining an image captured by the first imaging means;
Detection means for detecting an object region from the image acquired by the acquisition means;
If the object area detected by the detection means is in a shared area between the first imaging means and the second imaging means in the acquired image, the object recognition processing of the shared area is performed as the image processing. Determination means for determining which of the apparatus and the second image processing apparatus to perform;
When it is determined by the image processing apparatus that the determination means performs the object recognition range, the object recognition range is set to the entire range of the image, and when it is determined by the determination means that the second image processing apparatus performs the object recognition, Setting means for setting a range to an area excluding the shared area from the entire range of the image;
Recognizing means for recognizing whether or not an object is reflected in the object recognition range set by the setting means;
An image processing apparatus.
取得した前記画像中の動体領域の面積を算出する算出手段を更に有し、
前記判断手段は、前記算出手段で算出された前記面積を前記第二の画像処理装置に送信し、前記第二の画像処理装置が算出した前記第二の撮像手段で撮像された画像中の動体領域の面積を前記第二の画像処理装置より受信し、前記算出した面積の方が前記受信した面積より大きい場合は、前記共有領域の物体認識処理を前記第二の画像処理装置で行うと判断し、前記算出した面積の方が前記受信した面積より大きくない場合は、前記共有領域の物体認識処理を前記画像処理装置で行うと判断する請求項1記載の画像処理装置。
A calculation means for calculating the area of the moving object region in the acquired image;
The determination unit transmits the area calculated by the calculation unit to the second image processing device, and the moving object in the image captured by the second imaging unit calculated by the second image processing device. When the area of the area is received from the second image processing apparatus and the calculated area is larger than the received area, it is determined that the object recognition process of the shared area is performed by the second image processing apparatus. The image processing apparatus according to claim 1, wherein when the calculated area is not larger than the received area, the image processing apparatus determines that the object recognition process of the shared area is performed by the image processing apparatus.
前記画像中の顔領域の総数を計上する計上手段を更に有し、
前記判断手段は、前記計上手段で計上された前記顔領域の総数を前記第二の画像処理装置に送信し、前記第二の画像処理装置において前記共有領域の物体認識が可能か否かの可否応答を前記第二の画像処理装置より受信し、受信した可否応答が前記共有領域の物体認識が可能であることを示していた場合は、前記共有領域の物体認識処理を前記第二の画像処理装置で行うと判断し、受信した可否応答が前記共有領域の物体認識が可能でないことを示していた場合は、前記共有領域の物体認識処理を前記画像処理装置で行うと判断する請求項1記載の画像処理装置。
A counting means for counting the total number of face regions in the image;
The determination means transmits the total number of the face areas counted by the counting means to the second image processing apparatus, and whether or not the second image processing apparatus can recognize the object in the shared area. If the response is received from the second image processing apparatus and the received availability response indicates that the object recognition of the shared area is possible, the object recognition process of the shared area is changed to the second image processing. 2. The apparatus according to claim 1, wherein the image recognition apparatus determines that the image processing apparatus performs object recognition processing of the shared area when it is determined that the apparatus recognizes that the object is not recognized in the shared area. Image processing apparatus.
前記認識手段は、前記設定手段で設定された物体認識範囲に人体が写っているか物体認識を行う請求項1乃至3何れか1項記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the recognition unit recognizes whether a human body is in the object recognition range set by the setting unit. 前記認識手段は、前記設定手段で設定された物体認識範囲に特定の人物の顔が写っているか物体認識を行う請求項1乃至3何れか1項記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the recognizing unit recognizes whether a face of a specific person is in the object recognition range set by the setting unit. 第一の撮像手段で撮像された画像の画像処理を行う画像処理装置と、撮像範囲を前記第一の撮像手段と一部共有する第二の撮像手段で撮像された画像の画像処理を行う第二の画像処理装置と、を含む画像処理システムであって、
前記第一の画像処理装置は、
前記第一の撮像手段で撮像された画像を取得する取得手段と、
前記取得手段で取得された画像から物体領域を検知する検知手段と、
取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知手段で検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記第一の画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断手段と、
前記判断手段で前記第一の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断手段で前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定手段と、
前記設定手段で設定された物体認識範囲に物体が写っているか否か物体認識を行う認識手段と、
を有し、
前記第二の画像処理装置は、
前記第二の撮像手段で撮像された画像を取得する取得手段と、
前記取得手段で取得された画像から物体領域を検知する検知手段と、
取得した前記画像中の前記第二の撮像手段と前記第一の撮像手段との共有領域に、前記検知手段で検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記第二の画像処理装置と前記第一の画像処理装置との何れで行うかを判断する判断手段と、
前記判断手段で前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断手段で前記第一の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定手段と、
前記設定手段で設定された物体認識範囲に物体が写っているか否か物体認識を行う認識手段と、
を有する画像処理システム。
An image processing apparatus that performs image processing of an image captured by the first imaging means, and a second image processor that performs image processing of an image captured by the second imaging means that partially shares the imaging range with the first imaging means. An image processing system comprising: a second image processing apparatus;
The first image processing apparatus includes:
Obtaining means for obtaining an image captured by the first imaging means;
Detection means for detecting an object region from the image acquired by the acquisition means;
If the object area detected by the detection means is in the shared area between the first imaging means and the second imaging means in the acquired image, the object recognition processing of the shared area is performed in the first area. Determination means for determining which of the image processing apparatus and the second image processing apparatus to perform,
When it is determined by the determination means that the first image processing apparatus is used, the object recognition range is set to the entire range of the image, and when the determination means is determined to be performed by the second image processing apparatus Setting means for setting the object recognition range to an area excluding the shared area from the entire range of the image;
Recognizing means for recognizing whether or not an object is reflected in the object recognition range set by the setting means;
Have
The second image processing apparatus includes:
Obtaining means for obtaining an image captured by the second imaging means;
Detection means for detecting an object region from the image acquired by the acquisition means;
When the object area detected by the detection means is in the shared area between the second imaging means and the first imaging means in the acquired image, the object recognition processing of the shared area is performed in the second area. Determining means for determining which of the image processing apparatus and the first image processing apparatus to perform,
When it is determined by the determination means that the second image processing apparatus is used, the object recognition range is set to the entire range of the image, and when the determination means is determined to be performed by the first image processing apparatus Setting means for setting the object recognition range to an area excluding the shared area from the entire range of the image;
Recognizing means for recognizing whether or not an object is reflected in the object recognition range set by the setting means;
An image processing system.
第一の撮像手段で撮像された画像の画像処理を行い、前記第一の撮像手段と撮像範囲を一部共有する第二の撮像手段で撮像された画像の画像処理を行う第二の画像処理装置と通信を行う画像処理装置が実行する画像処理方法であって、
前記第一の撮像手段で撮像された画像を取得する取得ステップと、
前記取得ステップで取得された画像から物体領域を検知する検知ステップと、
取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知ステップで検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断ステップと、
前記判断ステップにおいて前記画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断ステップで前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定ステップと、
前記設定ステップで設定された物体認識範囲に物体が写っているか否か物体認識を行う認識ステップと、
を含む画像処理方法。
Second image processing that performs image processing of an image captured by the first imaging means and performs image processing of an image captured by the second imaging means that shares a part of the imaging range with the first imaging means An image processing method executed by an image processing apparatus that communicates with an apparatus,
An acquisition step of acquiring an image captured by the first imaging means;
A detection step of detecting an object region from the image acquired in the acquisition step;
When the object area detected in the detection step is in a shared area between the first imaging means and the second imaging means in the acquired image, the object recognition processing of the shared area is performed as the image processing. A determination step of determining which of the apparatus and the second image processing apparatus to perform;
If it is determined in the determination step that the image processing apparatus performs the object recognition range, the object recognition range is set to the entire range of the image. If it is determined in the determination step that the second image processing apparatus performs the object recognition, A setting step for setting a range to an area excluding the shared area from the entire range of the image;
A recognition step of performing object recognition as to whether or not an object is reflected in the object recognition range set in the setting step;
An image processing method including:
第一の撮像手段で撮像された画像の画像処理を行う画像処理装置と、撮像範囲を前記第一の撮像手段と一部共有する第二の撮像手段で撮像された画像の画像処理を行う第二の画像処理装置と、を含む画像処理システムにおける画像処理方法であって、
前記第一の画像処理装置が、前記第一の撮像手段で撮像された画像を取得する取得ステップと、
前記第一の画像処理装置が、前記取得ステップで取得された画像から物体領域を検知する検知ステップと、
前記第一の画像処理装置が、取得した前記画像中の前記第一の撮像手段と前記第二の撮像手段との共有領域に、前記検知ステップで検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記第一の画像処理装置と前記第二の画像処理装置との何れで行うかを判断する判断ステップと、
前記第一の画像処理装置が、前記判断ステップで前記第一の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断ステップで前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定ステップと、
前記第一の画像処理装置が、前記設定ステップで設定された物体認識範囲に物体が写っているか否か物体認識を行う認識ステップと、
前記第二の画像処理装置が、前記第二の撮像手段で撮像された画像を取得する取得ステップと、
前記第二の画像処理装置が、前記取得ステップで取得された画像から物体領域を検知する検知ステップと、
前記第二の画像処理装置が、取得した前記画像中の前記第二の撮像手段と前記第一の撮像手段との共有領域に、前記検知ステップで検知された前記物体領域がある場合、前記共有領域の物体認識処理を前記第二の画像処理装置と前記第一の画像処理装置との何れで行うかを判断する判断ステップと、
前記第二の画像処理装置が、前記判断ステップで前記第二の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲に設定し、前記判断ステップで前記第一の画像処理装置で行うと判断された場合、物体認識範囲を前記画像の全範囲から前記共有領域を除いた領域に設定する設定ステップと、
前記第二の画像処理装置が、前記設定ステップで設定された物体認識範囲に物体が写っているか否か物体認識を行う認識ステップと、
を含む画像処理方法。
An image processing apparatus that performs image processing of an image captured by the first imaging means, and a second image processor that performs image processing of an image captured by the second imaging means that partially shares the imaging range with the first imaging means. An image processing method in an image processing system, comprising:
The first image processing device acquires an image captured by the first imaging unit; and
The first image processing apparatus detects an object region from the image acquired in the acquisition step;
When the first image processing apparatus includes the object area detected in the detection step in the shared area of the first imaging means and the second imaging means in the acquired image, the sharing A determination step of determining whether the object recognition processing of the area is performed by the first image processing apparatus or the second image processing apparatus;
When the first image processing device is determined to be performed by the first image processing device in the determination step, the object recognition range is set to the entire range of the image, and the second image is determined in the determination step. When it is determined to be performed by the processing device, a setting step for setting an object recognition range to an area excluding the shared area from the entire range of the image;
A recognition step in which the first image processing apparatus performs object recognition as to whether or not an object is reflected in the object recognition range set in the setting step;
An acquisition step in which the second image processing apparatus acquires an image captured by the second imaging unit;
The second image processing apparatus detects a object region from the image acquired in the acquisition step;
When the second image processing apparatus includes the object region detected in the detection step in a shared region between the second imaging unit and the first imaging unit in the acquired image, the sharing A determination step of determining whether the object recognition processing of the region is performed by the second image processing device or the first image processing device;
When the second image processing device is determined to be performed by the second image processing device in the determination step, the object recognition range is set to the entire range of the image, and the first image is determined in the determination step. When it is determined to be performed by the processing device, a setting step for setting an object recognition range to an area excluding the shared area from the entire range of the image;
A recognition step in which the second image processing apparatus performs object recognition as to whether or not an object is reflected in the object recognition range set in the setting step;
An image processing method including:
JP2011094108A 2011-04-20 2011-04-20 Image processing apparatus, image processing system, and image processing method Active JP5777389B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011094108A JP5777389B2 (en) 2011-04-20 2011-04-20 Image processing apparatus, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011094108A JP5777389B2 (en) 2011-04-20 2011-04-20 Image processing apparatus, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2012226583A true JP2012226583A (en) 2012-11-15
JP5777389B2 JP5777389B2 (en) 2015-09-09

Family

ID=47276672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011094108A Active JP5777389B2 (en) 2011-04-20 2011-04-20 Image processing apparatus, image processing system, and image processing method

Country Status (1)

Country Link
JP (1) JP5777389B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014116912A (en) * 2012-12-12 2014-06-26 Canon Inc Image processing apparatus, control method for image processing apparatus, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0636031A (en) * 1992-07-15 1994-02-10 N T T Data Tsushin Kk Moving body tracking system utilizing computer
JPH1115981A (en) * 1997-06-19 1999-01-22 Matsushita Electric Ind Co Ltd Wide area monitoring device and system therefor
JP2005027085A (en) * 2003-07-03 2005-01-27 Minolta Co Ltd Image pick-up system
JP2005347942A (en) * 2004-06-01 2005-12-15 Konica Minolta Holdings Inc Monitor system, control program of monitor system and monitoring device
JP2006211696A (en) * 2000-02-28 2006-08-10 Hitachi Kokusai Electric Inc Object detecting method and object detecting system
JP2011070576A (en) * 2009-09-28 2011-04-07 Toshiba Corp Image processor and image processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0636031A (en) * 1992-07-15 1994-02-10 N T T Data Tsushin Kk Moving body tracking system utilizing computer
JPH1115981A (en) * 1997-06-19 1999-01-22 Matsushita Electric Ind Co Ltd Wide area monitoring device and system therefor
JP2006211696A (en) * 2000-02-28 2006-08-10 Hitachi Kokusai Electric Inc Object detecting method and object detecting system
JP2005027085A (en) * 2003-07-03 2005-01-27 Minolta Co Ltd Image pick-up system
JP2005347942A (en) * 2004-06-01 2005-12-15 Konica Minolta Holdings Inc Monitor system, control program of monitor system and monitoring device
JP2011070576A (en) * 2009-09-28 2011-04-07 Toshiba Corp Image processor and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014116912A (en) * 2012-12-12 2014-06-26 Canon Inc Image processing apparatus, control method for image processing apparatus, and program

Also Published As

Publication number Publication date
JP5777389B2 (en) 2015-09-09

Similar Documents

Publication Publication Date Title
TWI686774B (en) Human face live detection method and device
JP7130368B2 (en) Information processing device and information processing system
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
TWI430186B (en) Image processing apparatus and image processing method
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
JP4642128B2 (en) Image processing method, image processing apparatus and system
KR101687530B1 (en) Control method in image capture system, control apparatus and a computer-readable storage medium
US8538079B2 (en) Apparatus capable of detecting location of object contained in image data and detection method thereof
KR20140095333A (en) Method and apparratus of tracing object on image
TWI721786B (en) Face verification method, device, server and readable storage medium
US8923552B2 (en) Object detection apparatus and object detection method
US11315360B2 (en) Live facial recognition system and method
JP6266946B2 (en) Surveillance camera and image monitoring device
JP2010140315A (en) Object detection device
JP5777389B2 (en) Image processing apparatus, image processing system, and image processing method
JP7104523B2 (en) Information processing equipment, systems, information processing equipment control methods, and programs
JP6187261B2 (en) Person feature amount extraction system, server, and person feature amount extraction method
JP5769468B2 (en) Object detection system and object detection method
JP7255173B2 (en) Human detection device and human detection method
JP3894038B2 (en) Image processing apparatus, protrusion detection method and program for image processing apparatus
JP2019192155A (en) Image processing device, photographing device, image processing method, and program
JP4530175B2 (en) Image processing apparatus, protrusion detection method and program for image processing apparatus
WO2023276050A1 (en) Image processing system and imaging device
KR101426039B1 (en) Apparatus and method for extracting feature point to recognize face/object
JP2006309799A (en) Image processing device, protrusion detection method for it, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150707

R151 Written notification of patent or utility model registration

Ref document number: 5777389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151