JP5795916B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5795916B2
JP5795916B2 JP2011199935A JP2011199935A JP5795916B2 JP 5795916 B2 JP5795916 B2 JP 5795916B2 JP 2011199935 A JP2011199935 A JP 2011199935A JP 2011199935 A JP2011199935 A JP 2011199935A JP 5795916 B2 JP5795916 B2 JP 5795916B2
Authority
JP
Japan
Prior art keywords
image
human body
processing
area
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011199935A
Other languages
Japanese (ja)
Other versions
JP2013062688A (en
JP2013062688A5 (en
Inventor
安達 啓史
啓史 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011199935A priority Critical patent/JP5795916B2/en
Priority to US13/594,422 priority patent/US9111346B2/en
Priority to CN201210339883.XA priority patent/CN102999900B/en
Publication of JP2013062688A publication Critical patent/JP2013062688A/en
Publication of JP2013062688A5 publication Critical patent/JP2013062688A5/ja
Application granted granted Critical
Publication of JP5795916B2 publication Critical patent/JP5795916B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から被写体を検出するための技術に関するものである。   The present invention relates to a technique for detecting a subject from an image.

従来、監視カメラの画像から顔や人体等の特定の対象を検出する場合、パターンマッチング処理により対象の検出を行っていた。例えば、特許文献1では、画像の大きさを変更しながら照合パターンを画像全域に用いて複数の局所パターンを抽出し、それぞれの局所特徴量を算出する。そして、局所特徴量に重み付けを行った結果の総和から人体であるかを判定する。また、これらの特定物体の検出処理は、ネットワークカメラ機器の高画素化という背景や、監視等で実時間処理を行うために高速に実行できることが必要である。処理の高速化を実現する方法について、特許文献2には、パターンマッチングに用いる縮小画像(レイヤ)の優先度を過去の画像撮影結果に基づいて切り替える手法が記載されている。   Conventionally, when a specific target such as a face or a human body is detected from an image of a monitoring camera, the target is detected by pattern matching processing. For example, in Patent Document 1, a plurality of local patterns are extracted using a matching pattern over the entire image while changing the size of the image, and each local feature amount is calculated. And it is determined whether it is a human body from the sum total of the result of having weighted the local feature-value. In addition, these specific object detection processes need to be able to be performed at high speed in order to perform real-time processing in the background of increasing the number of pixels of network camera devices and monitoring. Regarding a method for realizing high-speed processing, Patent Document 2 describes a method of switching the priority of reduced images (layers) used for pattern matching based on past image capturing results.

特開2009−211311号公報JP 2009-211311 A 特許第4626493号公報Japanese Patent No. 4626493

しかしながら、特に監視カメラにおいては主に奥行のある広範囲を撮像することが多く、同一画面中に大きい被写体と小さい被写体が混在する場面があり、被写体が画面内で一様の大きさになるとは限らない。   However, in particular, surveillance cameras often capture a wide range of depth, and there are scenes in which large and small subjects are mixed in the same screen, and the subject is not always uniform in the screen. Absent.

この環境において、検出対象物体をもれなく検出するためには、物体の大きさが小さい場合から大きい場合までの照合パターンを用いる必要がある。そのため、照合処理に用いる縮小画像(レイヤ)の優先度を変えても結局高速度に検出処理を行うことが出来ない。   In this environment, in order to detect all the detection target objects, it is necessary to use a matching pattern from when the object size is small to when it is large. Therefore, even if the priority of the reduced image (layer) used for the collation process is changed, the detection process cannot be performed at a high speed after all.

本発明は上述した問題を解決するためになされたものであり、画像中の検出対象物体の大きさによらず高速に特定物体検出を可能にするための技術を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a technique for enabling a specific object to be detected at high speed regardless of the size of the detection target object in the image.

本発明の目的を達成するために、例えば、本発明の画像処理装置は、第1画像を取得する取得手段と、
前記第1画像を再帰的に縮小することで生成された画像を第N(Nは2以上の自然数)画像とした場合における前記第1乃至N画像に対して被写体検出処理を行う検出手段であって、第m画像(1≦m≦N)に含まれる各画像領域のうち、該第m画像と関連づけられている画像領域に対して被写体検出処理を行う前記検出手段と
を備えることを特徴とする。
In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention includes an acquisition means for acquiring a first image,
Detection means for performing subject detection processing on the first to N images when an image generated by recursively reducing the first image is an Nth image (N is a natural number of 2 or more). And detecting means for performing subject detection processing on an image area associated with the m-th image among the image areas included in the m-th image (1 ≦ m ≦ N). To do.

本発明の構成によれば、画像中の検出対象物体の大きさによらず高速に特定物体検出を行うことができる。   According to the configuration of the present invention, it is possible to detect a specific object at high speed regardless of the size of the detection target object in the image.

画像処理装置の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus. 人体検出処理を説明する図。The figure explaining a human body detection process. 画像の分割例を示す図。The figure which shows the example of a division | segmentation of an image. 対応テーブルの構成例を示す図。The figure which shows the structural example of a correspondence table. GUIの表示例を示す図。The figure which shows the example of a display of GUI. 画像処理装置が行う処理のフローチャート。6 is a flowchart of processing performed by the image processing apparatus. ステップS603,S605,S607,S609のフローチャート。The flowchart of step S603, S605, S607, S609. 画像処理装置の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus. 人体検出処理を説明する図。The figure explaining a human body detection process. 画像処理装置が行う処理のフローチャート。6 is a flowchart of processing performed by the image processing apparatus. ステップS1007,S1010,S1013のフローチャート。The flowchart of step S1007, S1010, S1013. 対応テーブルの構成例を示す図。The figure which shows the structural example of a correspondence table. GUIの表示例を示す図。The figure which shows the example of a display of GUI.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係る画像処理装置は、監視カメラなどの撮像装置内に組み込まれる画像処理回路や、パーソナルコンピュータなどのコンピュータ装置に適用することができるものである。先ず、本実施形態に係る画像処理装置の機能構成例について、図1のブロック図を用いて説明する。
[First Embodiment]
The image processing apparatus according to the present embodiment can be applied to an image processing circuit incorporated in an imaging apparatus such as a surveillance camera or a computer apparatus such as a personal computer. First, a functional configuration example of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG.

画像取得部101は、外部から供給された動画像若しくは静止画像を取得し、取得した動画像若しくは静止画像を後段の人体検出部102に送出する。画像取得部101は、動画像を取得した場合は、該動画像を構成する各フレームの画像を順次、人体検出部102に送出するし、静止画像を取得した場合は、この静止画像を人体検出部102に送出する。なお、動画像若しくは静止画像の供給元については特に限定するものではなく、有線若しくは無線を介して動画像若しくは静止画像を供給するサーバ装置や撮像装置であってもよい。また、外部に限るものではなく、画像処理装置内のメモリから動画像若しくは静止画像を取得するようにしてもよい。以下の説明では、画像取得部101が動画像を取得した場合であっても静止画像を取得した場合であっても、人体検出部102にある1枚の画像が入力された場合について説明する。前者の場合は、この1枚の画像が動画像を構成する各フレームに相当するし、後者の場合は、この1枚の画像が静止画像に相当する。   The image acquisition unit 101 acquires a moving image or still image supplied from the outside, and sends the acquired moving image or still image to the human body detection unit 102 in the subsequent stage. When the image acquisition unit 101 acquires a moving image, the image of each frame constituting the moving image is sequentially sent to the human body detection unit 102. When a still image is acquired, the image acquisition unit 101 detects the still image as a human body. Sent to the unit 102. Note that the source of the moving image or still image is not particularly limited, and may be a server device or an imaging device that supplies a moving image or still image via a wired or wireless connection. Further, the image is not limited to the outside, and a moving image or a still image may be acquired from a memory in the image processing apparatus. In the following description, a case where one image in the human body detection unit 102 is input regardless of whether the image acquisition unit 101 acquires a moving image or a still image will be described. In the former case, this single image corresponds to each frame constituting the moving image, and in the latter case, this single image corresponds to a still image.

人体検出部102は、画像取得部101から供給された画像(第1画像)からそれぞれ異なる大きさの被写体を検出するために、先ず、第1画像を再帰的に縮小することで、複数枚の画像(第2乃至第N画像)を生成する。以下では、第1乃至N画像の各画像を処理レイヤと呼称する場合がある。処理レイヤについて詳しくは後述する。そして人体検出部102は第1乃至N画像のそれぞれに対して人体照合パターンとの照合を行うことで被写体検出処理を行うのであるが、その際、第m画像(1≦m≦N)上の各画像領域のうち予め該第m画像と関連づけられている画像領域を対象画像領域とする。そして、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該矩形領域に対して被写体検出処理を行う。本実施形態では、被写体が人体である場合について説明するが、被写体が他のオブジェクトであっても、以下の説明は同様に適用することができる。また、本実施形態では、被写体検出処理に上記の人体照合パターンを用いた周知のパターンマッチングを用いるが、他の技術を用いて被写体検出処理を実現させてもよい。   In order to detect subjects having different sizes from the image (first image) supplied from the image acquisition unit 101, the human body detection unit 102 first reduces the first image recursively, thereby reducing a plurality of images. An image (second to Nth images) is generated. Hereinafter, each of the first to N images may be referred to as a processing layer. Details of the processing layer will be described later. The human body detection unit 102 performs subject detection processing by matching each of the first to N images with a human body matching pattern. At that time, the human body detection unit 102 performs processing on the mth image (1 ≦ m ≦ N). An image area associated with the mth image in advance among the image areas is set as a target image area. Then, a rectangular area of a prescribed size is set at each position in the target image area, and subject detection processing is performed on the rectangular area. In the present embodiment, the case where the subject is a human body will be described. However, the following description can be similarly applied even when the subject is another object. In this embodiment, the well-known pattern matching using the human body matching pattern is used for the subject detection process. However, the subject detection process may be realized using other techniques.

記憶部105には、第1乃至N画像において相対的に同じ位置の画像領域と、第1乃至N画像の何れかと、を関連づけたテーブル(対応テーブル)が保持(登録)されている。人体検出部102が、第m画像(1≦m≦N)上の各画像領域のうち、予め該第m画像と関連づけられている画像領域を対象画像領域として特定する際には、この対応テーブルを参照することになる。また、記憶部105には、人体の検出処理で用いる上記の人体照合パターンが登録されている。   The storage unit 105 holds (registers) a table (correspondence table) that associates image regions at relatively the same positions in the first to N images with any of the first to N images. When the human body detection unit 102 specifies an image area previously associated with the m-th image among the image areas on the m-th image (1 ≦ m ≦ N) as a target image area, this correspondence table Will be referred to. The storage unit 105 registers the human body matching pattern used in the human body detection process.

レイヤ設定部104は、入力部103からの操作入力に従って、上記の対応テーブルを作成する。入力部103は、キーボードやマウスなどにより構成されており、ユーザが操作することで、各種の指示を入力することができる。   The layer setting unit 104 creates the correspondence table according to the operation input from the input unit 103. The input unit 103 includes a keyboard, a mouse, and the like, and various instructions can be input by a user operation.

表示部109は、CRTや液晶画面などにより構成されており、後述する様々な画面を表示することができる。なお、入力部103と表示部109とを統合して、タッチパネル式の画面を構成してもよい。   The display unit 109 is configured by a CRT, a liquid crystal screen, or the like, and can display various screens to be described later. Note that the input unit 103 and the display unit 109 may be integrated to form a touch panel screen.

外部出力部106は、人体検出部102による処理結果を出力する。出力先については特定の出力先に限るものではなく、無線若しくは有線を介して外部の装置に対して出力してもよいし、表示部109に対して出力してもよい。また、出力する情報をそのまま出力してもよいし、可視可能な何らかのグラフィックスでもって出力してもよい。   The external output unit 106 outputs the processing result obtained by the human body detection unit 102. The output destination is not limited to a specific output destination, and may be output to an external device via a wireless or wired connection, or may be output to the display unit 109. Further, the information to be output may be output as it is or may be output with some visible graphics.

つぎに、様々なサイズの画像(本実施形態の場合には第1乃至N画像)に対して、人体照合パターンを用いたパターンマッチングを行うことで、該画像から被写体を検出する処理について説明する。それぞれの画像上の各位置に人体照合パターンを配置してパターンマッチングを行うために、先ず、図2(a)に示す如く、第1画像である画像201の左上隅に人体照合パターン202を配置する。ここで、以下では第1画像を処理レイヤ0(L0)と呼称する場合がある。そして人体照合パターン202の配置後、そこから右側に、上から下に向かって人体照合パターン202の位置を移動させる。移動させる毎に人体照合パターン202と重なっている画像領域と人体照合パターン202とのパターンマッチングを行い、人体を検出する。   Next, processing for detecting a subject from an image of various sizes (first to N images in the case of this embodiment) by performing pattern matching using a human body matching pattern will be described. . In order to perform pattern matching by arranging a human body matching pattern at each position on each image, first, as shown in FIG. 2A, a human body matching pattern 202 is placed at the upper left corner of the image 201 which is the first image. To do. Here, hereinafter, the first image may be referred to as processing layer 0 (L0). After the human body collation pattern 202 is arranged, the position of the human body collation pattern 202 is moved from the top to the right from there. Each time the image is moved, pattern matching is performed between the human body matching pattern 202 and the image region overlapping the human body matching pattern 202 to detect the human body.

次に、図2(b)に示す如く、第1画像を所定倍率(1よりも小さい倍率)だけ縮小した第2画像としての画像203を生成する。ここで、以下では第2画像を処理レイヤ1(L1)と呼称する場合がある。そして、第2画像である画像203の左上隅に人体照合パターン202を配置する。そして人体照合パターン202の配置後、そこから右側に、上から下に向かって人体照合パターン202の位置を移動させる。移動させる毎に人体照合パターン202と重なっている画像領域と人体照合パターン202とのパターンマッチングを行い、人体を検出する。   Next, as shown in FIG. 2B, an image 203 is generated as a second image obtained by reducing the first image by a predetermined magnification (a magnification smaller than 1). Here, hereinafter, the second image may be referred to as processing layer 1 (L1). Then, the human body matching pattern 202 is arranged in the upper left corner of the image 203 that is the second image. After the human body collation pattern 202 is arranged, the position of the human body collation pattern 202 is moved from the top to the right from there. Each time the image is moved, pattern matching is performed between the human body matching pattern 202 and the image region overlapping the human body matching pattern 202 to detect the human body.

次に、図2(c)に示す如く、第2画像を所定倍率(1よりも小さい倍率)だけ縮小した第3画像としての画像204を生成する。ここで、以下では第3画像を処理レイヤ2(L2)と呼称する場合がある。そして、第3画像である画像204の左上隅に人体照合パターン202を配置する。そして人体照合パターン202の配置後、そこから右側に、上から下に向かって人体照合パターン202の位置を移動させる。移動させる毎に人体照合パターン202と重なっている画像領域と人体照合パターン202とのパターンマッチングを行い、人体を検出する。   Next, as shown in FIG. 2C, an image 204 is generated as a third image obtained by reducing the second image by a predetermined magnification (a magnification smaller than 1). Hereinafter, the third image may be referred to as processing layer 2 (L2). Then, the human body matching pattern 202 is arranged in the upper left corner of the image 204 that is the third image. After the human body collation pattern 202 is arranged, the position of the human body collation pattern 202 is moved from the top to the right from there. Each time the image is moved, pattern matching is performed between the human body matching pattern 202 and the image region overlapping the human body matching pattern 202 to detect the human body.

このように、同じ人体照合パターンを繰り返し縮小画像に用いることにより、画像中の様々な大きさの人体を検出することが可能である。ここで、処理レイヤとは、入力画像を拡大または縮小して生成される、解像度の異なる複数の画像集合である。これまで述べたように、本実施形態における処理レイヤとは、複数の処理レイヤの画像集合であり、元画像をレイヤ0、画像を縮小していく毎に処理レイヤ1、処理レイヤ2としている。また、上記のように処理レイヤと検出する人体の大きさは関連している。   As described above, by repeatedly using the same human body matching pattern for the reduced image, it is possible to detect human bodies of various sizes in the image. Here, the processing layer is a plurality of image sets having different resolutions generated by enlarging or reducing an input image. As described above, the processing layer in the present embodiment is an image set of a plurality of processing layers. The original image is layer 0, and each time the image is reduced, the processing layer 1 and the processing layer 2 are used. Further, as described above, the size of the human body to be detected is related to the processing layer.

これらの処理を繰り返し行って各種大きさの人体を検出し、規定時間だけ処理を続けると終了する。処理終了は、本実施形態では処理を開始してからの経過時間に基づき決定しているが、処理を終了させるための条件はこれに限るものではない。例えば、検出した人体の数、人体検出処理を実行した回数などから処理終了を決定するようにしてもよい。   These processes are repeated to detect human bodies of various sizes, and the process ends when the process is continued for a specified time. In this embodiment, the end of the process is determined based on the elapsed time from the start of the process, but the condition for terminating the process is not limited to this. For example, the end of processing may be determined from the number of detected human bodies, the number of times human body detection processing is executed, and the like.

また、処理レイヤP(P≧1)を生成するための縮小倍率は1倍未満であれば何倍でも構わない。縮小倍率が1に近いほど高精度ではあるが処理時間は長くなり、縮小倍率が低くなるほど一般的には低精度になるが処理時間は短くなるため、運用条件によって適切な縮小倍率を設定するのが望ましい。また、本実施形態では、第1画像を再帰的に縮小した画像群から順次大きな人体を検出しているが、小さな人体から大きな人体を検出するように処理順を変えても構わない。   Further, the reduction ratio for generating the processing layer P (P ≧ 1) may be any number as long as it is less than 1. The closer the reduction ratio is to 1, the higher the accuracy, but the longer the processing time. The lower the reduction ratio, the lower the accuracy, but the shorter the processing time, so the appropriate reduction ratio should be set according to the operating conditions. Is desirable. In this embodiment, a large human body is sequentially detected from an image group obtained by recursively reducing the first image. However, the processing order may be changed so that a large human body is detected from a small human body.

また、本実施形態では被写体として人体を対象としているが、顔、自動車、動物等、であってもよい。更に、複数種類の特定物体を検出することができ、且つ同時に複数の被写体が検出可能であるならば、物体に複数の特定物体検出処理を実施してもよい。   In the present embodiment, the human body is the subject, but it may be a face, a car, an animal, or the like. Furthermore, if a plurality of types of specific objects can be detected and a plurality of subjects can be detected simultaneously, a plurality of specific object detection processes may be performed on the object.

また、別途設定した物体の大きさ、アスペクト比などの設定値に用いた物体の属性に応じて、複数の特定物体検出処理から所定の処理のみを選択し処理を実施してもよい。例えば、特定物体検出として、人体検出と車検出を行うとする。このとき、画面内で出現しうる車の大きさを車両最小サイズとして、ユーザの指示に従い予め設定する。そして、物体の大きさが車両最小サイズより小さい場合、車として検出される可能性は低いため、車検出は行わず、人体検出のみ実施する。一方で、物体の大きさが車両最小サイズより大きい場合、車として検出される可能性があるため、車検出を実施する。また、複数の人が集団で行動し、一つの物体として検出された可能性もあるため、人体検出も実施する。   In addition, depending on the object attributes used for the set values such as the object size and aspect ratio set separately, only a predetermined process may be selected from a plurality of specific object detection processes and the process may be performed. For example, assume that human body detection and car detection are performed as specific object detection. At this time, the size of the car that can appear in the screen is set as a minimum vehicle size in accordance with a user instruction. When the size of the object is smaller than the minimum vehicle size, the possibility of being detected as a car is low, so the car detection is not performed and only the human body detection is performed. On the other hand, if the size of the object is larger than the minimum vehicle size, the vehicle may be detected, and therefore vehicle detection is performed. Further, since there is a possibility that a plurality of people act as a group and are detected as one object, human body detection is also performed.

次に、上記の対応テーブル及びこれを作成する手順について説明する。   Next, the correspondence table and the procedure for creating it will be described.

先ずレイヤ設定部104は、図3に示す如く、画像取得部101が取得した画像、即ち第1画像としての画像301を複数の矩形領域(画像領域)302に分割する。図3では、3(縦)×4(横)個の矩形領域302に分割しているが、分割数や分割パターンについてはこれに限るものではない。即ち、画像を等間隔に分割しなくてもよいし、画像全体でなく一部の領域を複数の領域に分割するようにしてもよい。また、分割した領域の形状は矩形に限るものではなく、任意の形状の領域であってもよいし、ユーザが設定した多角形等のような形状であっても構わない。   First, as illustrated in FIG. 3, the layer setting unit 104 divides the image acquired by the image acquisition unit 101, that is, the image 301 as the first image into a plurality of rectangular regions (image regions) 302. In FIG. 3, although divided into 3 (vertical) × 4 (horizontal) rectangular regions 302, the number of divisions and the division pattern are not limited thereto. That is, the image may not be divided at equal intervals, or a part of the image, not the entire image, may be divided into a plurality of regions. Further, the shape of the divided area is not limited to a rectangle, but may be an area having an arbitrary shape, or may be a shape such as a polygon set by the user.

そしてレイヤ設定部104は、それぞれの矩形領域302を識別するために、それぞれの矩形領域に識別番号を割り当てる。図3では、最上段の矩形領域302に対し、左端から順に(1,1)、(1,2)、(1,3)、(1,4)というように識別番号を割り当てている。また、中段の矩形領域302に対し、左端から順に(2,1)、(2,2)、(2,3)、(2,4)というように識別番号を割り当てている。また、最下段の矩形領域302に対し、左端から順に(3,1)、(3,2)、(3,3)、(3,4)というように識別番号を割り当てている。   Then, the layer setting unit 104 assigns an identification number to each rectangular area in order to identify each rectangular area 302. In FIG. 3, identification numbers such as (1, 1), (1, 2), (1, 3), (1, 4) are assigned to the uppermost rectangular area 302 in order from the left end. Further, an identification number is assigned to the middle rectangular area 302 in the order of (2, 1), (2, 2), (2, 3), (2, 4) from the left end. Further, identification numbers such as (3, 1), (3, 2), (3, 3), and (3, 4) are assigned to the bottom rectangular region 302 in order from the left end.

図3において、識別番号が(1,3)の矩形領域内の人体303は、識別番号(2,1)の矩形領域及び識別番号(3,1)の矩形領域にまたがって映っている人体304に比べて奥に位置しているために、より小さく映っている。本実施形態では係る点に着目し、第1画像の全ての矩形領域に対して人体検出処理を行うのではなく、人体が比較的小さく映っている領域に関しては第1画像から検出し、人体が比較的大きく映っている領域に関してはより縮小した画像から検出する。   In FIG. 3, the human body 303 in the rectangular area with the identification number (1, 3) is shown across the rectangular area with the identification number (2, 1) and the rectangular area with the identification number (3, 1). Because it is located in the back compared to, it appears smaller. In this embodiment, paying attention to this point, the human body detection process is not performed on all the rectangular areas of the first image, but the area where the human body appears relatively small is detected from the first image. A relatively large area is detected from a further reduced image.

次に、レイヤ設定部104は、図5(a)に示す如く、表示部109の表示画面501上に、画像取得部101が取得した第1画像を表示する。そしてユーザは、入力部103を操作して、この第1画像内に写っている人体を囲む枠502,503を設定する。この枠502,503は、検出対象とする人体のサイズを示すサンプル矩形である。また、この枠502,503は四隅に制御点を持ち、その形状やサイズ、第1画像内における位置を変更可能である。なお、表示画面501に第1画像を表示することなく、ユーザは適当なサイズ及び位置の枠を入力部103を用いて設定するようにしてもよい。   Next, the layer setting unit 104 displays the first image acquired by the image acquisition unit 101 on the display screen 501 of the display unit 109 as shown in FIG. Then, the user operates the input unit 103 to set frames 502 and 503 that surround the human body shown in the first image. The frames 502 and 503 are sample rectangles indicating the size of the human body to be detected. The frames 502 and 503 have control points at the four corners, and the shape and size of the frames 502 and 503 can be changed in the first image. Note that the user may set an appropriate size and position frame using the input unit 103 without displaying the first image on the display screen 501.

いずれにせよ、図5(a)のように、奥行がある場合は、表示画面内で小さい枠と大きい枠を設定するのが望ましく、図5(a)では表示画面奥で小さな枠を設定し、表示画面手前では大きな枠が設定されている。   In any case, when there is a depth as shown in FIG. 5A, it is desirable to set a small frame and a large frame in the display screen. In FIG. 5A, a small frame is set at the back of the display screen. A large frame is set in front of the display screen.

そしてユーザが入力部103を操作してこの設定が完了した旨を入力すると、レイヤ設定部104は、次のように動作する。先ず、表示画面501上で設定された1以上の枠のサイズから、第1画像上の各矩形領域に対し、該矩形領域内に人体が映った場合に想定される該人体を包含する枠(想定被写体サイズ)を求める。図5(b)では、枠502及び枠503のサイズと枠502及び枠503への距離とから、線形補間により、各矩形領域における想定被写体サイズを求めており、点線で示している枠504は、この想定被写体サイズを有する枠である。もちろん、各矩形領域における想定被写体サイズを求める方法はこれに限るものではない。以下では、ユーザが設定した枠(図5(a)では枠502,503)及び該枠から補間により求めた枠(図5(b)では枠504)を総称して被写体枠と呼称する。   When the user operates the input unit 103 to input that this setting has been completed, the layer setting unit 104 operates as follows. First, from the size of one or more frames set on the display screen 501, for each rectangular area on the first image, a frame that includes the human body assumed when the human body appears in the rectangular area ( Assumed subject size). In FIG. 5B, the assumed subject size in each rectangular area is obtained by linear interpolation from the size of the frame 502 and the frame 503 and the distance to the frame 502 and the frame 503, and the frame 504 indicated by a dotted line is A frame having the assumed subject size. Of course, the method of obtaining the assumed subject size in each rectangular area is not limited to this. Hereinafter, a frame set by the user (frames 502 and 503 in FIG. 5A) and a frame obtained by interpolation from the frames (frame 504 in FIG. 5B) are collectively referred to as a subject frame.

レイヤ設定部104は各矩形領域における被写体枠が定まると、図4に例示する如く、各矩形領域の識別番号と、該矩形領域について求めた被写体枠のサイズに対応する処理レイヤとの対応関係を管理する上記の対応テーブルを生成して記憶部105に登録する。   When the subject frame in each rectangular area is determined, the layer setting unit 104 determines the correspondence between the identification number of each rectangular area and the processing layer corresponding to the size of the subject frame obtained for the rectangular area, as illustrated in FIG. The above correspondence table to be managed is generated and registered in the storage unit 105.

図4に例示した対応テーブルは、図3に示した第1画像に対応するものである。図3に示した第1画像では、最上段の矩形領域については図5(b)の如く、比較的サイズが小さい被写体枠が設定されるので、この場合、最上段の矩形領域に対しては、比較的サイズが大きい画像である第1,2画像(処理レイヤ0,1)が関連づけられている。   The correspondence table illustrated in FIG. 4 corresponds to the first image illustrated in FIG. In the first image shown in FIG. 3, a subject frame having a relatively small size is set for the uppermost rectangular area as shown in FIG. 5B. In this case, for the uppermost rectangular area, The first and second images (processing layers 0 and 1), which are relatively large images, are associated with each other.

また、図3に示した第1画像では、中段の矩形領域については図5(b)の如く、最上段の矩形領域よりも比較的サイズが大きい被写体枠が設定される。然るにこの場合、中段の矩形領域に対しては、最上段の矩形領域よりも比較的サイズが小さい画像である第2,3画像(処理レイヤ1,2)が関連づけられている。   In the first image shown in FIG. 3, a subject frame that is relatively larger in size than the uppermost rectangular area is set in the middle rectangular area as shown in FIG. 5B. In this case, however, the second and third images (processing layers 1 and 2), which are relatively smaller in size than the uppermost rectangular area, are associated with the middle rectangular area.

また、図3に示した第1画像では、最下段の矩形領域については図5(b)の如く、中段の矩形領域よりも比較的サイズが大きい被写体枠が設定される。然るにこの場合、最下段の矩形領域に対しては、中段の矩形領域よりも比較的サイズが小さい画像である第4,5画像(処理レイヤ3,4)が関連づけられている。   In the first image shown in FIG. 3, a subject frame that is relatively larger in size than the middle rectangular area is set for the lowermost rectangular area as shown in FIG. 5B. However, in this case, the lowermost rectangular area is associated with fourth and fifth images (processing layers 3 and 4), which are relatively smaller in size than the middle rectangular area.

これらの設定は、画像上部の領域では小さい人体のみ検出処理を行い、大きい人体は検出処理を行わないように設定していることを示している。なお、被写体枠のサイズと、第1乃至N画像のそれぞれのサイズと、の対応関係は予め設定されており、被写体枠のサイズが決まると、これに対応する画像が第1乃至N画像の何れであるのかが特定できるようになっている。   These settings indicate that only the small human body is detected in the area above the image, and the large human body is set not to perform the detection process. Note that the correspondence between the size of the subject frame and the sizes of the first to N images is set in advance, and when the size of the subject frame is determined, the corresponding image is any of the first to N images. Can be specified.

しかし、図4のような対応テーブルの生成方法はこれに限るものではなく、ユーザが入力部103を操作して作成するようにしてもよい。例えば、識別番号(1,1)の矩形領域には被写体が映っていないので、この矩形領域に対しては、処理レイヤは関連づけなくてもよい。このような関連づけに係る例外操作などは、ユーザが入力部103を用いて行うようにしてもよい。   However, the method for generating the correspondence table as shown in FIG. 4 is not limited to this, and the user may create the correspondence table by operating the input unit 103. For example, since the subject is not shown in the rectangular area with the identification number (1, 1), the processing layer does not have to be associated with this rectangular area. Such an exception operation related to the association may be performed by the user using the input unit 103.

このように、人体検出処理時において、各領域の検出処理時に対応テーブルの処理レイヤのみを用いることにより、不要な大きさの人体検出処理を省略出来るため、人体検出処理の高速化が可能となる。   In this way, at the time of human body detection processing, by using only the processing layer of the correspondence table at the time of detection processing of each region, the human body detection processing of an unnecessary size can be omitted, so that the speed of human body detection processing can be increased. .

ここで、矩形領域と処理レイヤとの関連づけ方法には様々なものがあり、例えば、次のような方法が考え得る。例えば、ある矩形領域に対応する処理レイヤとして処理レイヤ2を登録するだけでなく、その前後の処理レイヤ(処理レイヤ1や処理レイヤ3)をも、該矩形領域に対応する処理レイヤとして登録するようにしてもよい。あるいは前後1レイヤではなく前後複数レイヤを登録するようにしてもよい。これは、人体検出処理における画像の縮小倍率に関連し、縮小倍率が0に近いほど検出漏れが発生する可能性が高いため、処理レイヤのマージンを広くとるようにするとよい。   Here, there are various methods for associating the rectangular area with the processing layer. For example, the following method can be considered. For example, not only processing layer 2 is registered as a processing layer corresponding to a rectangular area, but also the processing layers (processing layer 1 and processing layer 3) before and after that are registered as processing layers corresponding to the rectangular area. It may be. Alternatively, a plurality of front and rear layers may be registered instead of the front and rear layers. This is related to the reduction ratio of the image in the human body detection process. Since the possibility of omission of detection increases as the reduction ratio is closer to 0, it is preferable to increase the margin of the processing layer.

また、例えば、上記のように、ユーザが設定した2つの枠から各矩形領域における枠を求めるのではなく、1つの枠と2つ以上の直線を設定させてこの1つの枠と2つ以上の直線とから各矩形領域における枠を求めてもよい。この場合、複数の直線から画像上の消失点を求める。そして消失点と設定した枠の位置に基づき各矩形領域における枠を設定し、設定した枠のサイズに対応する処理レイヤを求める。各矩形領域における枠の算出方法は、単純に消失点での人体サイズを0とし、消失点からの距離で比例的に求めることが可能である。   Also, for example, instead of obtaining a frame in each rectangular area from two frames set by the user as described above, one frame and two or more straight lines are set, and this one frame and two or more frames are set. A frame in each rectangular area may be obtained from the straight line. In this case, the vanishing point on the image is obtained from a plurality of straight lines. Then, a frame in each rectangular area is set based on the vanishing point and the set frame position, and a processing layer corresponding to the set frame size is obtained. The calculation method of the frame in each rectangular area can be simply obtained by proportionally determining the human body size at the vanishing point as 0 and the distance from the vanishing point.

この場合、図5のGUIの代わりに、図13に例示するGUIを表示し、このGUIを用いて各矩形領域における枠を求めればよい。図13において表示部109の表示画面1301上に枠1302と直線1303とをユーザに設定させる。直線1303は、直線抽出処理により抽出したものであってもよい。消失点1304は、2つの直線1303を延長した場合に交差した点である。   In this case, instead of the GUI of FIG. 5, the GUI illustrated in FIG. 13 may be displayed, and a frame in each rectangular area may be obtained using this GUI. In FIG. 13, the user sets a frame 1302 and a straight line 1303 on the display screen 1301 of the display unit 109. The straight line 1303 may be extracted by a straight line extraction process. A vanishing point 1304 is a point that intersects when two straight lines 1303 are extended.

またあるいは、ハフ変換等の画像から直線を求める画像処理技術は多数知られており、これらを用いて自動的に画像から2つ以上の直線を求め、消失点を求め、同様に画像内の各位置における処理レイヤを求めるようにしても構わない。またここでは直線から消失点を求める例を挙げたが、画像における消失点を求める方法であればどのような手法であっても構わない。   Alternatively, many image processing techniques for obtaining a straight line from an image such as Hough transform are known, and using these, two or more straight lines are automatically obtained from an image, vanishing points are obtained, and each image in the image is similarly obtained. The processing layer at the position may be obtained. In addition, although an example in which the vanishing point is obtained from a straight line has been described here, any method may be used as long as it is a method for obtaining the vanishing point in the image.

次に、本実施形態に係る画像処理装置が行う処理について、同処理のフローチャートを示す図6を用いて説明する。なお、このフローチャートに従った処理を開始する時点で、記憶部105には、上記のような対応テーブルがすでに登録されているものとする。   Next, processing performed by the image processing apparatus according to the present embodiment will be described with reference to FIG. 6 showing a flowchart of the processing. It is assumed that the correspondence table as described above is already registered in the storage unit 105 at the time when the processing according to this flowchart is started.

ステップS601では、画像処理装置100の不図示の制御部は、以下の処理を継続するか否かを判断する。この判断では上記の通り、図6のフローチャートの処理を開始してから規定時間以上が経過した場合には、処理を終了するものと判断し、まだ規定時間が経過していない場合は、以下の処理を継続するものと判断する。ステップS601における判断の結果、継続する場合は、処理はステップS602に進み、継続しない場合は、本処理を終了する。ステップS602では、画像取得部101は、第1画像としての入力画像を取得する。   In step S601, a control unit (not shown) of the image processing apparatus 100 determines whether to continue the following processing. In this determination, as described above, if the specified time or more has elapsed since the start of the processing of the flowchart of FIG. 6, it is determined that the processing is to end, and if the specified time has not yet elapsed, It is determined that the process is to be continued. If the result of determination in step S601 is to continue, the process proceeds to step S602; otherwise, the process ends. In step S602, the image acquisition unit 101 acquires an input image as a first image.

ステップS603では、人体検出部102は、ステップS601で画像取得部101が取得した第1画像に対して人体検出処理を行う。ステップS603,S605,S607,S609のそれぞれにおける人体検出処理は何れも同じフローチャートに沿って行われる処理であるため、これらのステップにおける処理についての説明は、後述する。   In step S603, the human body detection unit 102 performs human body detection processing on the first image acquired by the image acquisition unit 101 in step S601. Since the human body detection process in each of steps S603, S605, S607, and S609 is a process that is performed along the same flowchart, the process in these steps will be described later.

ステップS603における処理が終わると、次にステップS604では、人体検出部102は、第1画像を縮小した画像である第2画像を生成する。   When the processing in step S603 ends, in step S604, the human body detection unit 102 generates a second image that is an image obtained by reducing the first image.

ステップS605では、人体検出部102は、ステップS604で生成した第2画像に対して人体検出処理を行う。ステップS605における処理が終わると、次にステップS606では、人体検出部102は、第2画像を縮小した画像である第3画像を生成する。   In step S605, the human body detection unit 102 performs human body detection processing on the second image generated in step S604. When the processing in step S605 ends, in step S606, the human body detection unit 102 generates a third image that is an image obtained by reducing the second image.

ステップS607では、人体検出部102は、ステップS606で生成した第3画像に対して人体検出処理を行う。以降、同様の処理を第N画像まで行う(S608,S609)。   In step S607, the human body detection unit 102 performs human body detection processing on the third image generated in step S606. Thereafter, the same processing is performed up to the Nth image (S608, S609).

ステップS610では、外部出力部106は、第1乃至N画像からの人体検出処理の結果を統合する。この統合処理では、第1乃至N画像のそれぞれにおける人体の検出領域に対応する、第1画像上の領域を求める処理である。そして外部出力部106は、この求めた領域の位置やサイズを出力する。   In step S610, the external output unit 106 integrates the results of the human body detection process from the first to N images. In this integration process, an area on the first image corresponding to the human body detection area in each of the first to N images is obtained. The external output unit 106 outputs the obtained position and size of the area.

次に、ステップS603,S605,S607,S609のそれぞれにおける人体検出処理について、同処理のフローチャートを示す図7を用いて説明する。以下では、第m画像(1≦m≦N)に対する人体検出処理について説明する。然るに、ステップS603ではm=1とすればよいし、ステップS605ではm=2とすればよいし、ステップS607ではm=3とすればよいし、ステップS609ではm=Nとすればよい。   Next, the human body detection process in each of steps S603, S605, S607, and S609 will be described with reference to FIG. 7 showing a flowchart of the process. Hereinafter, the human body detection process for the m-th image (1 ≦ m ≦ N) will be described. However, m = 1 may be set in step S603, m = 2 may be set in step S605, m = 3 may be set in step S607, and m = N may be set in step S609.

ステップS701では、人体検出部102は、第m画像内での人体照合パターンの移動が完了したか否かを判断する。即ち、第m画像内で人体照合パターンを用いた人体検出処理が完了したか否かを判断する。この判断の結果、第m画像内での人体照合パターンの移動が完了した、即ち、第m画像内で人体照合パターンを用いた人体検出処理が完了した場合は、図7のフローチャートに従った処理は完了する。一方、第m画像内での人体照合パターンの移動がまだ完了していない、即ち、第m画像内で人体照合パターンを用いた人体検出処理がまだ完了していない場合は、処理はステップS702に進む。ステップS702では、人体検出部102は、記憶部105から上記の対応テーブルを取得する。   In step S701, the human body detection unit 102 determines whether or not the movement of the human body matching pattern within the mth image has been completed. That is, it is determined whether or not the human body detection process using the human body matching pattern in the mth image is completed. As a result of the determination, when the movement of the human body matching pattern in the mth image is completed, that is, when the human body detection process using the human body matching pattern is completed in the mth image, the processing according to the flowchart of FIG. Is completed. On the other hand, if the movement of the human body verification pattern in the mth image has not been completed yet, that is, if the human body detection process using the human body verification pattern has not been completed in the mth image, the process proceeds to step S702. move on. In step S <b> 702, the human body detection unit 102 acquires the above correspondence table from the storage unit 105.

ステップS703では、人体検出部102は、対応テーブルを参照し、第m画像上における現在の人体照合パターンが、第m画像に関連づけられている識別番号を有する矩形領域内に位置しているか否かを判断する。この判断の結果、「第m画像に関連づけられている識別番号を有する矩形領域内に位置している」と判断した場合は、処理はステップS704に進む。一方、「第m画像に関連づけられている識別番号を有する矩形領域内に位置している」と判断できなかった場合は、処理はステップS705に進む。   In step S703, the human body detection unit 102 refers to the correspondence table, and determines whether or not the current human body matching pattern on the m-th image is located in a rectangular area having an identification number associated with the m-th image. Judging. As a result of this determination, if it is determined that “it is located within a rectangular area having an identification number associated with the mth image”, the process proceeds to step S704. On the other hand, if it cannot be determined that “it is located within the rectangular area having the identification number associated with the mth image”, the process proceeds to step S705.

図4の例では、m=1の場合、人体照合パターンが識別番号(1,2)、(1,3)、(1,4)の矩形領域内に位置している場合にのみ、処理はステップS704に進み、それ以外はステップS705に進む。   In the example of FIG. 4, when m = 1, the processing is performed only when the human body matching pattern is located in the rectangular area of the identification numbers (1, 2), (1, 3), (1, 4). The process proceeds to step S704, otherwise the process proceeds to step S705.

ステップS704では、人体検出部102は、第m画像において人体照合パターンと重なっている領域と人体照合パターンとのパターンマッチングにより人体検出処理を行い、人体を検知した位置やサイズを出力する。   In step S <b> 704, the human body detection unit 102 performs human body detection processing by pattern matching between a human body verification pattern and a region that overlaps the human body verification pattern in the m-th image, and outputs the position and size at which the human body is detected.

ステップS705では、人体検出部102は、人体照合パターンを次の位置に移動させる。なお、ステップS704からステップS705に処理が進んだ場合、ステップS705では、人体照合パターンを数画素分だけ移動させればよい。一方、ステップS703からステップS705に処理が進んだ場合も同様の分だけ移動させてもよいが、数画素分だけ移動させても、移動した先の位置はまだ「第m画像に関連づけられている識別番号を有する矩形領域内」ではない可能性がある。そこでこのような場合は、次の矩形領域まで移動させてもよい。このような処理を行うことで、同一矩形領域内の人体検出処理を一括して省略することが可能となる。   In step S705, the human body detection unit 102 moves the human body matching pattern to the next position. If the process proceeds from step S704 to step S705, the human body matching pattern may be moved by several pixels in step S705. On the other hand, even when the process proceeds from step S703 to step S705, the movement may be performed by the same amount, but even if the movement is performed by several pixels, the moved position is still “associated with the mth image. There is a possibility that it is not “in a rectangular area having an identification number”. In such a case, it may be moved to the next rectangular area. By performing such processing, it is possible to omit the human body detection processing in the same rectangular area at once.

以上の説明により、本実施形態によれば、画像中に登場する被写体のサイズに関係なく、より高速に被写体の検出処理を行うことができる。   As described above, according to the present embodiment, the subject detection process can be performed at a higher speed regardless of the size of the subject appearing in the image.

[第2の実施形態]
以下では、第1の実施形態と異なる点のみについて説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、画像全体に対して対象レイヤの人体検出処理を行っていた。しかし、例えば、元画像に対し動体検出処理を行い、動体を検出した領域に対してのみ人体検出処理を行う、というようにしてもよい。また、第1の実施形態では、人体検出処理の際の照合スキャン位置で対象レイヤを判別して用いていた。しかし、例えば、動体領域の位置で対象レイヤを判別して用いるようにしてもよい。
[Second Embodiment]
Below, only a different point from 1st Embodiment is demonstrated, and unless it touches in particular below, it shall be the same as that of 1st Embodiment. In the first embodiment, the human body detection process of the target layer is performed on the entire image. However, for example, the moving object detection process may be performed on the original image, and the human body detection process may be performed only on the area where the moving object is detected. Further, in the first embodiment, the target layer is determined and used at the collation scan position in the human body detection process. However, for example, the target layer may be determined and used based on the position of the moving object region.

本実施形態に係る画像処理装置の機能構成例について、図8のブロック図を用いて説明する。なお、図8において、図1に示した構成要件と同じ構成要件については同じ参照番号を付しており、その説明は省略する。   A functional configuration example of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG. In FIG. 8, the same constituent elements as those shown in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted.

動体領域検出部801は、画像取得部101が取得した第1画像から背景差分法により動体が映っている領域を動体領域として検出する。検出する内容は、第1画像上における動体領域の位置、動体領域の外接矩形、動体領域のサイズ、等、第1画像上における動体領域を規定する情報(動体領域情報)である。なお、第1画像から動体領域を検出する方法には、様々な技術が適用できるため、背景差分法に限らず、他の技術を適用してもよい。   The moving object region detection unit 801 detects, as a moving object region, a region in which a moving object is reflected from the first image acquired by the image acquisition unit 101 by the background subtraction method. The content to be detected is information (moving body area information) that defines the moving body area on the first image, such as the position of the moving body area on the first image, the circumscribed rectangle of the moving body area, and the size of the moving body area. In addition, since various techniques can be applied to the method of detecting the moving object region from the first image, not only the background difference method but also other techniques may be applied.

そして動体領域検出部801は、検出した動体領域情報を後段の人体検出部102に送出する。人体検出部102は、第m画像上の各画像領域のうち、予め該第m画像と関連づけられている画像領域であって動体領域情報が示す動体領域を含む画像領域を対象画像領域とする。そして人体検出部102は、該対象画像領域内の各位置に規定サイズの矩形領域を設定して該対象画像領域に対して人体検出処理を行う。   Then, the moving body region detection unit 801 sends the detected moving body region information to the subsequent human body detection unit 102. The human body detection unit 102 sets an image area that is an image area that is associated with the m-th image in advance and includes the moving body area indicated by the moving body area information, as the target image area. Then, the human body detection unit 102 sets a rectangular area of a specified size at each position in the target image area, and performs human body detection processing on the target image area.

なお、人体検出処理は、動体領域を完全に含む画像領域だけでなく部分的に含む画像領域に対しても行う方が、動体検出処理で誤って未検出と判別されてしまった動体領域箇所に対しても人体検出を行うことが出来る。   Note that the human body detection process is performed not only on an image area that completely includes a moving body area but also on an image area that partially includes a moving body area that has been erroneously determined to be undetected by the moving body detection process. The human body can also be detected.

本実施形態で行う人体検出処理について、図9を用いて説明する。第1画像としての画像901に対して動体領域検出部801が動体検出処理を行うことで得られる動体領域が領域902,903であるとすると、この領域902,903内で人体照合パターン904を用いて人体検出処理を行う。もちろん、人体検出処理は、領域902,903内の全ての画像領域に対して行うのではなく、画像901に関連づけられている画像領域に対して行う。そして同様の処理を、第2画像、第3画像、…、第N画像の各画像に対しても行う。   The human body detection process performed in this embodiment will be described with reference to FIG. If the moving body region obtained by the moving body region detection unit 801 performing the moving body detection process on the image 901 as the first image is the regions 902 and 903, the human body matching pattern 904 is used in the regions 902 and 903. To perform human body detection processing. Of course, the human body detection process is not performed on all the image areas in the areas 902 and 903 but on the image area associated with the image 901. Similar processing is performed for each of the second image, the third image,..., The Nth image.

次に、本実施形態に係る画像処理装置が行う処理について、同処理のフローチャートを示す図10を用いて説明する。   Next, processing performed by the image processing apparatus according to the present embodiment will be described with reference to FIG. 10 showing a flowchart of the processing.

ステップS1001では、画像処理装置100の不図示の制御部は、上記のステップS601と同様にして、以下の処理を継続するか否かを判断する。ステップS1001における判断の結果、継続する場合は、処理はステップS1002に進み、継続しない場合は、本処理を終了する。ステップS1002では、画像取得部101は、第1画像としての入力画像を取得し、動体領域検出部801は、この第1画像から動体領域を検出する。   In step S1001, the control unit (not shown) of the image processing apparatus 100 determines whether or not to continue the following processing in the same manner as in step S601. If the result of determination in step S1001 is to continue, the process proceeds to step S1002, and if not continued, this process ends. In step S1002, the image acquisition unit 101 acquires an input image as a first image, and the moving object region detection unit 801 detects a moving object region from the first image.

ステップS1003では、人体検出部102は先ず、ステップS1002で検出された動体領域のうちまだ以下の処理の対象となっていない動体領域を1つ、選択動体領域として選択する。選択順については特定の順序に限るものではないが、例えば第1画像の左上隅の位置からラスタースキャン順に選択すればよい。   In step S1003, the human body detection unit 102 first selects one moving body area that has not yet been subjected to the following processing among the moving body areas detected in step S1002 as a selected moving body area. The selection order is not limited to a specific order. For example, the selection order may be selected from the position of the upper left corner of the first image in the raster scan order.

ステップS1004では、人体検出部102は、第1画像から選択動体領域を原画像L0として抽出する。ステップS1005では、人体検出部102は、記憶部105に格納されている対応テーブルから、選択動体領域を含む画像領域の識別番号に関連づけられている処理レイヤを特定する。   In step S1004, the human body detection unit 102 extracts the selected moving body region from the first image as the original image L0. In step S <b> 1005, the human body detection unit 102 specifies a processing layer associated with the identification number of the image area including the selected moving body area from the correspondence table stored in the storage unit 105.

ステップS1006では、人体検出部102は、ステップS1005で特定した処理レイヤに第1画像が含まれているか否かを判断する。この判断の結果、含まれている場合は、処理はステップS1007に進み、含まれない場合は、処理はステップS1008に進む。   In step S1006, the human body detection unit 102 determines whether or not the first image is included in the processing layer specified in step S1005. As a result of this determination, if it is included, the process proceeds to step S1007, and if it is not included, the process proceeds to step S1008.

ステップS1007では、人体検出部102は、原画像L0に対して人体検出処理を行う。ステップS1007,S1010,S1013のそれぞれにおける人体検出処理は何れも同じフローチャートに沿って行われる処理であるため、これらのステップにおける処理についての説明は、後述する。   In step S1007, the human body detection unit 102 performs human body detection processing on the original image L0. Since the human body detection process in each of steps S1007, S1010, and S1013 is a process that is performed along the same flowchart, the process in these steps will be described later.

ステップS1008では、人体検出部102は、ステップS1005で特定した処理レイヤに第2画像が含まれているか否かを判断する。この判断の結果、含まれている場合は、処理はステップS1009に進み、含まれない場合は、第3画像についてステップS1008〜S1010に対応する処理を行う。このようにして、第4画像、…、第N画像についても同様の処理を行う(S1011〜S1013)。   In step S1008, the human body detection unit 102 determines whether or not the second image is included in the processing layer specified in step S1005. As a result of the determination, if it is included, the process proceeds to step S1009. If not, the process corresponding to steps S1008 to S1010 is performed on the third image. In this way, the same processing is performed for the fourth image,..., The Nth image (S1011 to S1013).

ステップS1009では、人体検出部102は、第1画像を縮小した画像である第2画像を生成する。ステップS1010では、人体検出部102は、ステップS1009で生成した第2画像中の、上記原画像L0に対応する領域(即ち第2画像中の動体領域)に対して人体検出処理を行う。   In step S1009, the human body detection unit 102 generates a second image that is an image obtained by reducing the first image. In step S1010, the human body detection unit 102 performs a human body detection process on a region corresponding to the original image L0 (that is, a moving body region in the second image) in the second image generated in step S1009.

ステップS1014では、外部出力部106は、第1乃至N画像からの人体検出処理の結果を統合する。この統合処理では、第1乃至N画像のそれぞれにおける人体の検出領域に対応する、第1画像上の領域を求める処理である。そして外部出力部106は、この求めた領域の位置やサイズを出力する。   In step S1014, the external output unit 106 integrates the results of the human body detection process from the first to N images. In this integration process, an area on the first image corresponding to the human body detection area in each of the first to N images is obtained. The external output unit 106 outputs the obtained position and size of the area.

ステップS1015では、不図示の制御部は、ステップS1002で検出された全ての動体領域について人体検出処理が行われたか否かを判断する。この判断の結果、全ての動体領域について人体検出処理が行われた場合は処理はステップS1001に進み、まだ人体検出処理が行われていない動体領域が残っている場合は、処理はステップS1003に進む。   In step S1015, the control unit (not shown) determines whether or not human body detection processing has been performed for all moving body regions detected in step S1002. As a result of the determination, if the human body detection process is performed for all the moving body regions, the process proceeds to step S1001. If the moving body region that has not been subjected to the human body detection process still remains, the process proceeds to step S1003. .

ここで、本実施形態では、ステップS1008やステップS1011にて、ステップS1005で特定した処理レイヤに第m画像が含まれているか否かを判断した後、この第m画像を生成していた。しかし例えば、対応テーブルに処理するレイヤの縮小画像自体を予め作成しておくことで、ステップS1009やステップS1012における処理を省くようにしてもよい。   In this embodiment, in step S1008 or step S1011, it is determined whether or not the mth image is included in the processing layer specified in step S1005, and then the mth image is generated. However, for example, the processing in step S1009 or step S1012 may be omitted by creating in advance a reduced image of the layer to be processed in the correspondence table.

次に、ステップS1007,S1010,S1013のそれぞれにおける人体検出処理について、同処理のフローチャートを示す図11を用いて説明する。以下では、第m画像(1≦m≦N)に対する人体検出処理について説明する。然るに、ステップS1007ではm=1とすればよいし、ステップS1010ではm=2とすればよいし、ステップS1013ではm=Nとすればよい。   Next, the human body detection process in each of steps S1007, S1010, and S1013 will be described with reference to FIG. 11 showing a flowchart of the process. Hereinafter, the human body detection process for the m-th image (1 ≦ m ≦ N) will be described. However, m = 1 may be set in step S1007, m = 2 may be set in step S1010, and m = N may be set in step S1013.

ステップS1101では、人体検出部102は、第m画像内における選択動体領域内での人体照合パターンの移動が完了したか否かを判断する。即ち、第m画像内における選択動体領域内で人体照合パターンを用いた人体検出処理が完了したか否かを判断する。この判断の結果、完了した場合は、図11のフローチャートに従った処理は完了する。一方、完了していない場合は、処理はステップS1102に進む。   In step S1101, the human body detection unit 102 determines whether or not the movement of the human body matching pattern within the selected moving body region in the mth image has been completed. That is, it is determined whether or not the human body detection process using the human body matching pattern is completed in the selected moving body region in the mth image. As a result of this determination, when the processing is completed, the processing according to the flowchart of FIG. 11 is completed. On the other hand, if not completed, the process proceeds to step S1102.

ステップS1102では、人体検出部102は、第m画像において人体照合パターンと重なっている領域と人体照合パターンとのパターンマッチングにより人体検出処理を行い、人体を検知した位置やサイズを出力する。   In step S1102, the human body detection unit 102 performs human body detection processing by pattern matching between a human body verification pattern and a region overlapping with the human body verification pattern in the m-th image, and outputs the position and size at which the human body is detected.

ステップS1103では、人体検出部102は、人体照合パターンを次の位置に移動させる。なお、この移動では、人体照合パターンを数画素分だけ移動させればよい。もちろん、移動量は特定の移動量に限るものではない。   In step S1103, the human body detection unit 102 moves the human body matching pattern to the next position. In this movement, the human body verification pattern may be moved by several pixels. Of course, the movement amount is not limited to a specific movement amount.

以上の説明により、本実施形態によれば、画像中の検出対象物体の大きさによらず高速に特定物体検出処理を行うことが出来る。また、元画像に対し動体検出処理を行い、動体を検出した領域のみに対し人体検出処理を行うことで人体検出を高速に行うことが出来る。   As described above, according to the present embodiment, the specific object detection process can be performed at high speed regardless of the size of the detection target object in the image. In addition, by performing the moving object detection process on the original image and performing the human body detection process only on the area where the moving object is detected, the human body detection can be performed at high speed.

[第3の実施形態]
以下では、第1の実施形態と異なる点のみについて説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、図4に例示したような対応テーブルを予め作成して人体検出処理に用いていた。しかし、例えば、過去の人体検出結果に基づいて対応テーブルを作成し、それを用いて人体検出を行うようにしてもよい。
[Third Embodiment]
Below, only a different point from 1st Embodiment is demonstrated, and unless it touches in particular below, it shall be the same as that of 1st Embodiment. In the first embodiment, a correspondence table as illustrated in FIG. 4 is created in advance and used for human body detection processing. However, for example, a correspondence table may be created based on past human body detection results, and human bodies may be detected using the correspondence table.

本実施形態では予め、複数枚の入力画像のそれぞれに対して次のような処理を行う。先ず、入力画像から第1乃至N画像を生成する。そして、第1乃至N画像のそれぞれを図3に示す如く複数の矩形領域に分割し、それぞれの矩形領域に対して人体検出処理を行う。人体が検出された領域に対してはカウント値(初期値は0)を1つインクリメントする。   In the present embodiment, the following processing is performed on each of a plurality of input images in advance. First, first to N images are generated from an input image. Then, each of the first to N images is divided into a plurality of rectangular areas as shown in FIG. 3, and human body detection processing is performed on each rectangular area. The count value (initial value is 0) is incremented by 1 for the area where the human body is detected.

このような処理により、結果として図12のような対応テーブルが得られる。この対応テーブルには、第1乃至N画像(L0〜Ln)のそれぞれに対し、識別番号(1,1)〜(3,4)の各矩形領域におけるカウント値が登録されている。   As a result of such processing, a correspondence table as shown in FIG. 12 is obtained. In this correspondence table, the count values in the rectangular areas of the identification numbers (1, 1) to (3, 4) are registered for the first to N images (L0 to Ln), respectively.

例えば、第1画像、第2画像、第3画像、第4画像のそれぞれにおける識別番号(1,2)の矩形領域には、人体が5回(カウント値が5)、4回(カウント値が4)、3回(カウント値が3)、0回(カウント値が0)検出されている。また、第1画像、第2画像、第3画像、第4画像のそれぞれにおける識別番号(3,2)の矩形領域には、人体が0回(カウント値が0)、0回(カウント値が0)、1回(カウント値が1)、4回(カウント値が4)検出されている。   For example, in the rectangular area of the identification number (1, 2) in each of the first image, the second image, the third image, and the fourth image, the human body is 5 times (count value is 5), 4 times (the count value is 4) Three times (count value is 3) and 0 times (count value is 0) are detected. In addition, in the rectangular area of the identification number (3, 2) in each of the first image, the second image, the third image, and the fourth image, the human body is 0 times (count value is 0), 0 times (the count value is 0), once (count value is 1), and 4 times (count value is 4).

つまりこの対応テーブルは、画像上方では比較的大きい人体がよく検出され、画像下方では比較的小さい人体が良く検出されていることを示している。このような対応テーブルを作成すると、記憶部105に登録する。この一連の処理は、入力部103からの操作とレイヤ設定部104による動作と、により行ってもよいし、外部装置が行ってもよい。   That is, this correspondence table shows that a relatively large human body is often detected above the image, and a relatively small human body is well detected below the image. When such a correspondence table is created, it is registered in the storage unit 105. This series of processing may be performed by an operation from the input unit 103 and an operation by the layer setting unit 104, or may be performed by an external device.

そして本実施形態においても、ステップS703における処理を除き、第1の実施形態と同様にして人体検出処理を行う。以下に、本実施形態に係るステップS703について説明する。   Also in the present embodiment, human body detection processing is performed in the same manner as in the first embodiment except for the processing in step S703. Hereinafter, step S703 according to the present embodiment will be described.

ステップS703では人体検出部102は、上記の対応テーブルを参照し、第m画像上の現在の人体照合パターンが属する矩形領域の識別番号に対する第1乃至N画像のそれぞれのカウント値のうち最大カウント値に対応するものが第m画像であるかを判断する。   In step S703, the human body detection unit 102 refers to the above correspondence table, and the maximum count value among the count values of the first to N images with respect to the identification number of the rectangular area to which the current human body matching pattern on the m-th image belongs. It is determined whether the image corresponding to is the m-th image.

ここで一例を挙げてステップS703を説明する。ステップS703の時点で、人体照合パターンが第3画像上の識別番号(2,3)の矩形領域上にあるとする。識別番号(2,3)における第1乃至N画像のそれぞれのカウント値は0,3,5,0,…(以降、全て0)であり、第3画像のカウント値が最も大きいため、この場合は処理はステップS704に進む。一方、人体照合パターンが第2画像上の識別番号(2,3)の矩形領域上にある場合、第3画像のカウント値が最も大きいため、この場合は処理はステップS705に進む。   Here, step S703 will be described with an example. It is assumed that the human body matching pattern is on the rectangular area of the identification number (2, 3) on the third image at the time of step S703. In this case, the count values of the first to N images in the identification number (2, 3) are 0, 3, 5, 0,... (Hereinafter all 0), and the count value of the third image is the largest. The process proceeds to step S704. On the other hand, when the human body matching pattern is on the rectangular area of the identification number (2, 3) on the second image, the count value of the third image is the largest, and in this case, the process proceeds to step S705.

なお、最大カウント値の代わりに、規定回数以上のカウント値に対応する(規定回数以上検出される)ものが第m画像であるかを判断するようにしてもよい。この場合の規定回数は学習期間(上記複数枚の入力画像を取得する期間)により変動させるのが望ましい。またあるいは、最大カウント値の画像の前後の画像(レイヤ番号が前後)であれば、ステップS704に進むようにしてもよい(R(2,3)の場合はL1、L2、L2が処理レイヤとなる)。   Instead of the maximum count value, it may be determined whether the image corresponding to the count value equal to or greater than the specified number of times (detected more than the specified number of times) is the m-th image. In this case, the specified number of times is preferably changed according to the learning period (a period during which the plurality of input images are acquired). Alternatively, if it is an image before and after the image of the maximum count value (layer numbers are before and after), the process may proceed to step S704 (in the case of R (2, 3), L1, L2, and L2 are processing layers). .

以上の説明により、本実施形態によれば、画像中の検出対象物体の大きさによらず高速に特定物体検出処理を行うことが出来る。また、過去の検出結果に基づき検出処理を行うようにすることで検出処理に用いる処理レイヤの設定を簡易に行うことが出来る。   As described above, according to the present embodiment, the specific object detection process can be performed at high speed regardless of the size of the detection target object in the image. In addition, by performing detection processing based on past detection results, it is possible to easily set a processing layer used for detection processing.

また、上記の各実施形態は適宜組み合わせて用いてもよい。また、図1,8に示した画像処理装置の各部のうち、入力部103、記憶部105、表示部109を除く各部の一部若しくは全部はハードウェアで構成してもよいし、ソフトウェア(コンピュータプログラム)で構成してもよい。後者の場合、このコンピュータプログラムは画像処理装置内の不図示のメモリに格納され、画像処理装置が有するCPU等の制御部により実行されることになる。   Further, the above embodiments may be used in appropriate combination. 1 and 8, some or all of the units other than the input unit 103, the storage unit 105, and the display unit 109 may be configured by hardware or software (computer) Program). In the latter case, the computer program is stored in a memory (not shown) in the image processing apparatus and executed by a control unit such as a CPU included in the image processing apparatus.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (7)

第1画像を取得する取得手段と、
前記第1画像を再帰的に縮小することで生成された画像を第N(Nは2以上の自然数)画像とした場合における前記第1乃至N画像に対して被写体検出処理を行う検出手段であって、第m画像(1≦m≦N)に含まれる各画像領域のうち、該第m画像と関連づけられている画像領域に対して被写体検出処理を行う前記検出手段と
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring a first image;
Detection means for performing subject detection processing on the first to N images when an image generated by recursively reducing the first image is an Nth image (N is a natural number of 2 or more). And detecting means for performing subject detection processing on an image area associated with the m-th image among the image areas included in the m-th image (1 ≦ m ≦ N). An image processing apparatus.
更に、
前記第1乃至N画像において相対的に同じ位置の画像領域と、前記第1乃至N画像の何れかと、を関連づけたテーブルを保持する保持手段を備え、
前記検出手段は、前記第m画像に含まれる各画像領域のうち、前記テーブルによって該第m画像と関連づけられている画像領域に対して被写体検出処理を行う
ことを特徴とする請求項1に記載の画像処理装置。
Furthermore,
Holding means for holding a table in which image regions at the same position in the first to N images are associated with any one of the first to N images;
2. The object detection processing according to claim 1, wherein the detection unit performs subject detection processing on an image region associated with the m-th image by the table among the image regions included in the m-th image. Image processing apparatus.
更に、
前記第1画像に含まれる各画像領域に対し、該画像領域内に被写体が映った場合に想定される想定被写体サイズを、前記第1画像上に設定された1以上の領域のサイズから求める手段と、
前記第1乃至N画像において相対的に同じ位置の画像領域に対し、前記第1乃至N画像のうち該画像領域について求めた想定被写体サイズに対応づけられている画像を関連づけた前記テーブルを生成して前記保持手段に登録する登録手段と
を備えることを特徴とする請求項2に記載の画像処理装置。
Furthermore,
Means for determining, for each image area included in the first image , an assumed subject size assumed when a subject appears in the image area from the size of one or more areas set on the first image When,
Generating the table associating an image area of the first to N images, which is relatively located at the same position, with an image associated with the assumed subject size obtained for the image area of the first to N images; The image processing apparatus according to claim 2, further comprising: a registration unit configured to register with the holding unit.
前記検出手段は、前記第1画像において動体が映っている領域を動体領域として検出し、前記第m画像に含まれる各画像領域のうち、該第m画像と関連づけられており且つ前記第m画像内で前記動体領域に対応する領域を含む画像領域に対して被写体検出処理を行うことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The detection means detects an area in which the moving object is shown in the first image as a moving object area, and is associated with the m-th image among the image areas included in the m-th image and the m-th image. 4. The image processing apparatus according to claim 1, wherein subject detection processing is performed on an image area including an area corresponding to the moving object area. 5. 前記検出手段は、前記第m画像に含まれる各画像領域のうち、該第m画像と関連づけられており且つ被写体が規定回数以上検出される画像領域として特定されている画像領域に対して被写体検出処理を行うことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The detection means detects a subject in an image region that is associated with the m-th image and is identified as an image region in which the subject is detected a predetermined number of times or more among the image regions included in the m-th image. The image processing apparatus according to claim 1, wherein processing is performed. 画像処理方法であって、
取得手段が、第1画像を取得する取得工程と、
検出手段が、前記第1画像を再帰的に縮小することで生成された画像を第N(Nは2以上の自然数)画像とした場合における前記第1乃至N画像に対して被写体検出処理を行う検出工程であって、第m画像(1≦m≦N)に含まれる各画像領域のうち、該第m画像と関連づけられている画像領域に対して被写体検出処理を行う前記検出工程と
有することを特徴とする画像処理方法。
An image processing method comprising:
An acquisition step in which the acquisition means acquires the first image;
The detection means performs subject detection processing on the first to N images when the image generated by recursively reducing the first image is an Nth image (N is a natural number of 2 or more). a detecting step, among the image regions included in the m image (1 ≦ m ≦ N), and a said detection step of performing subject detection processing on the image region associated with said m image An image processing method.
コンピュータを、請求項1乃至5の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 5.
JP2011199935A 2011-09-13 2011-09-13 Image processing apparatus and image processing method Active JP5795916B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011199935A JP5795916B2 (en) 2011-09-13 2011-09-13 Image processing apparatus and image processing method
US13/594,422 US9111346B2 (en) 2011-09-13 2012-08-24 Image processing apparatus, image processing method, and recording medium
CN201210339883.XA CN102999900B (en) 2011-09-13 2012-09-13 Image processing equipment and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011199935A JP5795916B2 (en) 2011-09-13 2011-09-13 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2013062688A JP2013062688A (en) 2013-04-04
JP2013062688A5 JP2013062688A5 (en) 2014-10-30
JP5795916B2 true JP5795916B2 (en) 2015-10-14

Family

ID=48186989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011199935A Active JP5795916B2 (en) 2011-09-13 2011-09-13 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5795916B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092507A (en) 2016-12-07 2018-06-14 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7134716B2 (en) * 2017-09-08 2022-09-12 キヤノン株式会社 Image processing device, image processing method and program
JP6935522B2 (en) * 2020-01-22 2021-09-15 三菱電機インフォメーションシステムズ株式会社 Object detection device, object detection method and object detection program
JP7489225B2 (en) 2020-04-20 2024-05-23 メタウォーター株式会社 IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING APPARATUS, PROGRAM, AND IMAGE PROCESSING METHOD

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110486A (en) * 2007-11-01 2009-05-21 Sony Corp Unit, method and program for image processing, imaging unit, and control method for imaging unit
JP5202148B2 (en) * 2008-07-15 2013-06-05 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP2010165052A (en) * 2009-01-13 2010-07-29 Canon Inc Image processor and image processing method

Also Published As

Publication number Publication date
JP2013062688A (en) 2013-04-04

Similar Documents

Publication Publication Date Title
US20220245809A1 (en) Computer aided diagnosis system for detecting tissue lesion on microscopy images based on multi-resolution feature fusion
JP5925068B2 (en) Video processing apparatus, video processing method, and program
JP2018022484A (en) Method of detecting object in image, and object detection system
US20110273474A1 (en) Image display apparatus and image display method
KR20200079697A (en) Image processing apparatus and image processing method thereof
CN104811660A (en) Control apparatus and control method
US20100315315A1 (en) Optimal graphics panelization for mobile displays
KR20150106330A (en) Image display apparatus and image display method
JP5795916B2 (en) Image processing apparatus and image processing method
CN104169972A (en) Area designating method and area designating device
US9407835B2 (en) Image obtaining method and electronic device
US9111346B2 (en) Image processing apparatus, image processing method, and recording medium
CN112752158A (en) Video display method and device, electronic equipment and storage medium
KR20210103761A (en) Apparatus and Method of Processing Image Copying Test for Evaluating Cognitive Impairment, and Computer Readable Recording Medium
CN103516989B (en) The method of electronic installation and enhancing image resolution ratio
US20070186191A1 (en) Method of visualizing a pointer during interaction
JP2005157134A (en) Information output method, device and program, and computer readable storage medium stored with information output program
JP2011198006A (en) Object detecting apparatus, object detecting method, and object detecting program
US20200264108A1 (en) Information processing apparatus, information processing method, and recording medium
JP2018092507A (en) Image processing apparatus, image processing method, and program
JP5528410B2 (en) Viewer device, server device, display control method, electronic comic editing method and program
CN107133022A (en) Control display methods and device in terminal device
JP5668405B2 (en) Information display device and information display program
JP2015232765A (en) Image generation device, computer program, and image generation method
JP2014164343A (en) Image processing apparatus, image processing system, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150817

R151 Written notification of patent or utility model registration

Ref document number: 5795916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151