JP2018124629A - Image processing device, information processing method and program - Google Patents

Image processing device, information processing method and program Download PDF

Info

Publication number
JP2018124629A
JP2018124629A JP2017014208A JP2017014208A JP2018124629A JP 2018124629 A JP2018124629 A JP 2018124629A JP 2017014208 A JP2017014208 A JP 2017014208A JP 2017014208 A JP2017014208 A JP 2017014208A JP 2018124629 A JP2018124629 A JP 2018124629A
Authority
JP
Japan
Prior art keywords
image
size
detection
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017014208A
Other languages
Japanese (ja)
Other versions
JP6452738B2 (en
Inventor
小林 正幸
Masayuki Kobayashi
正幸 小林
弥志 河林
Hisashi Kawabayashi
弥志 河林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017014208A priority Critical patent/JP6452738B2/en
Priority to EP18153451.2A priority patent/EP3355243A1/en
Priority to US15/879,915 priority patent/US11019251B2/en
Priority to CN201810090248.XA priority patent/CN108376243B/en
Publication of JP2018124629A publication Critical patent/JP2018124629A/en
Application granted granted Critical
Publication of JP6452738B2 publication Critical patent/JP6452738B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To more easily increase speed in detection processing of an object.SOLUTION: An image processing device detects an object, based on size information related to the size of the object which becomes a detection target in an area, from the area set to an image, and updates the size information, based on the size of the detected object.SELECTED DRAWING: Figure 6

Description

本発明は、画像処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an information processing method, and a program.

従来、監視カメラ等の撮像装置により撮影された画像から人体や顔等のオブジェクトを検出する場合、パターンマッチング処理によりオブジェクトの検出が行われている。このような場合、撮像装置の画角や、撮像装置と被写体との距離等によって、撮影された画像内におけるオブジェクトのサイズが異なるため、画像全体に対して様々なサイズのオブジェクトの検出処理が行われていた。しかしながら、画像全体に対して、様々なサイズのオブジェクトの検出処理を行うと、時間が多くかかってしまう。そこで、処理を高速化するために、撮像装置の画角や撮像装置と被写体との距離を設定したり、測定装置を用いて測定したりすることで、撮像装置により撮影された画像から検出するオブジェクトのサイズを限定する手法が提案されている。
例えば、特許文献1では、距離センサーで求めた距離情報に応じて検出する顔サイズの範囲を決定する方法が開示されている。
また、特許文献2では、ステレオカメラで撮影されたオブジェクトまでの距離を測定することで、そのオブジェクトの実際の大きさを算出する方法が開示されている。
Conventionally, when an object such as a human body or a face is detected from an image taken by an imaging device such as a monitoring camera, the object is detected by pattern matching processing. In such a case, the size of the object in the captured image differs depending on the angle of view of the imaging device, the distance between the imaging device and the subject, etc., and therefore various types of object detection processing are performed on the entire image. It was broken. However, it takes a lot of time to detect objects of various sizes on the entire image. Therefore, in order to speed up the processing, the angle of view of the imaging device, the distance between the imaging device and the subject is set, or measurement is performed using the measurement device, thereby detecting from the image taken by the imaging device. A method for limiting the size of an object has been proposed.
For example, Patent Document 1 discloses a method for determining a face size range to be detected according to distance information obtained by a distance sensor.
Patent Document 2 discloses a method for calculating an actual size of an object by measuring a distance to the object photographed by a stereo camera.

特開2004−318331号公報JP 2004-318331 A 特開2008−236276号公報JP 2008-236276 A

しかしながら、特許文献1、2に開示された従来技術では、何らかの方法で撮像装置と被写体との距離を測定しなければならず、その距離の情報がないと、検出対象とするオブジェクトのサイズを絞ることができないという問題がある。また、撮像装置の画角や撮像装置と被写体との距離等の情報を、撮像装置の配置位置を変更する度に設定する必要があり、ユーザーの負担が過大となるという問題もある。
本発明は上記の課題を解決するためになされたものであり、より簡易に、オブジェクトの検出処理を高速化することを目的とする。
However, in the conventional techniques disclosed in Patent Documents 1 and 2, the distance between the imaging device and the subject must be measured by some method. If there is no information on the distance, the size of the object to be detected is reduced. There is a problem that can not be. In addition, it is necessary to set information such as the angle of view of the imaging apparatus and the distance between the imaging apparatus and the subject every time the arrangement position of the imaging apparatus is changed.
The present invention has been made to solve the above-described problems, and an object thereof is to speed up the object detection process more simply.

本発明の画像処理装置は、画像に対して設定された領域から、前記領域で検出対象となるオブジェクトのサイズに係るサイズ情報に基づいて、前記オブジェクトを検出する検出手段と、前記検出手段により検出された前記オブジェクトのサイズに基づいて、前記サイズ情報を更新する更新手段と、を有する。   An image processing apparatus according to the present invention includes: a detection unit that detects an object based on size information relating to a size of an object to be detected in the region from a region set for the image; and the detection unit detects the object Updating means for updating the size information based on the size of the object.

本発明によれば、より簡易に、オブジェクトの検出処理を高速化することができる。   According to the present invention, it is possible to speed up the object detection process more easily.

画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image processing apparatus. 画像処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of an image processing apparatus. 画像に含まれる領域の一例を説明する図である。It is a figure explaining an example of the field included in an image. 検出サイズの情報の一例を説明する図である。It is a figure explaining an example of the information of detection size. オブジェクトの検出処理の一例を説明する図である。It is a figure explaining an example of the detection process of an object. 画像処理装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of an image processing apparatus. 画角変更の際の処理の一例を説明する図である。It is a figure explaining an example of the process in the case of a view angle change. 撮影された画像の一例を説明する図である。It is a figure explaining an example of the image | photographed image. 画像の分割の一例を説明する図である。It is a figure explaining an example of the division | segmentation of an image. 領域毎に設定された検出対象のオブジェクトのサイズの表示の一例を説明する図である。It is a figure explaining an example of a display of the size of the object of detection set up for every field.

以下に、本発明の好ましい実施の形態を、図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

<実施形態1>
本実施形態に係る画像処理装置100は、画像処理機能を有する監視カメラ等の撮像装置であるとする。
図1は、画像処理装置100のハードウェア構成の一例を示す図である。画像処理装置100は、CPU101、主記憶装置102、補助記憶装置103、撮影部104、ネットワークI/F105、入出力I/F106を含む。各要素は、システムバス107を介して、相互に通信可能に接続されている。
CPU101は、画像処理装置100を制御する中央演算装置である。主記憶装置102は、CPU101のワークエリアやデータの一時的な記憶領域として機能するRandom Access Memory(RAM)等の記憶装置である。補助記憶装置103は、各種設定情報、各種プログラム、撮影部104により撮影された画像の情報等を記憶するRead Only Memory(ROM)、ハードディスクドライブ(HDD)等の記憶装置である。また、補助記憶装置103は、ソリッドステートドライブ(SSD)等であってもよい。
<Embodiment 1>
Assume that the image processing apparatus 100 according to the present embodiment is an imaging apparatus such as a surveillance camera having an image processing function.
FIG. 1 is a diagram illustrating an example of a hardware configuration of the image processing apparatus 100. The image processing apparatus 100 includes a CPU 101, a main storage device 102, an auxiliary storage device 103, a photographing unit 104, a network I / F 105, and an input / output I / F 106. Each element is connected to be communicable with each other via a system bus 107.
The CPU 101 is a central processing unit that controls the image processing apparatus 100. The main storage device 102 is a storage device such as a random access memory (RAM) that functions as a work area for the CPU 101 or a temporary storage area for data. The auxiliary storage device 103 is a storage device such as a read only memory (ROM) or a hard disk drive (HDD) that stores various setting information, various programs, information on images captured by the image capturing unit 104, and the like. Further, the auxiliary storage device 103 may be a solid state drive (SSD) or the like.

撮影部104は、CCD等の撮像素子、レンズ等を介して、画像を撮影する撮影部である。ネットワークI/F105は、外部の装置との間でのネットワークを介した通信に利用されるインターフェースである。入出力I/F106は、外付けの記憶装置等の外部の装置との間での情報の入出力に利用されるインターフェースである。
本実施形態では、CPU101が撮影部104により撮影された画像からオブジェクトを検出する処理を行う。また、本実施形態では、検出対象となるオブジェクトは、人体であるとするが、顔、車両、貨物、動物等の他のオブジェクトであってもよい。
CPU101が、補助記憶装置103に記憶されたプログラムに基づき処理を実行することで、図2で後述する画像処理装置100の機能及び図6で後述するフローチャートの処理等が実現される。
The imaging unit 104 is an imaging unit that captures an image via an imaging element such as a CCD, a lens, or the like. The network I / F 105 is an interface used for communication with an external device via a network. The input / output I / F 106 is an interface used for inputting / outputting information to / from an external device such as an external storage device.
In the present embodiment, the CPU 101 performs processing for detecting an object from an image photographed by the photographing unit 104. In the present embodiment, the object to be detected is a human body, but may be other objects such as a face, a vehicle, a cargo, and an animal.
The CPU 101 executes processing based on a program stored in the auxiliary storage device 103, thereby realizing the functions of the image processing apparatus 100 described later with reference to FIG. 2, the flowchart processing described with reference to FIG.

図2は、画像処理装置100の機能構成の一例を示す図である。画像処理装置100の機能について、図2を用いて説明する。
画像処理装置100は、画像取得部201、検出部202、出力部203、サイズ入力部204、パターン管理部205を含む。画像取得部201は、撮影部104、又は外部から取得した画像(動画又は静止画)を取得し、取得した画像を検出部202に送信する。画像取得部201は、外部の撮像装置や画像を供給するサーバ装置等から画像を取得することとしてもよい。また、画像取得部201は、画像処理装置100内の補助記憶装置103に記憶されている画像を取得することとしてもよい。画像取得部201により取得される画像は、画像処理装置100に入力される検出処理の対象の画像の一例である。
FIG. 2 is a diagram illustrating an example of a functional configuration of the image processing apparatus 100. The function of the image processing apparatus 100 will be described with reference to FIG.
The image processing apparatus 100 includes an image acquisition unit 201, a detection unit 202, an output unit 203, a size input unit 204, and a pattern management unit 205. The image acquisition unit 201 acquires an image (moving image or still image) acquired from the imaging unit 104 or from the outside, and transmits the acquired image to the detection unit 202. The image acquisition unit 201 may acquire an image from an external imaging device or a server device that supplies an image. Further, the image acquisition unit 201 may acquire an image stored in the auxiliary storage device 103 in the image processing apparatus 100. The image acquired by the image acquisition unit 201 is an example of a detection target image input to the image processing apparatus 100.

画像取得部201は、画像として動画を取得した場合は、取得した動画を構成する各フレーム画像を順次、検出部202に送信する。そして、検出部202は、送信された各フレームそれぞれについて、オブジェクトの検出処理を行う。画像取得部201は、画像として静止画を取得した場合は、取得した静止画を検出部202に送信する。以下のでは、検出部202に画像取得部201から静止画、又は動画における1枚のフレームが送信された場合について説明する。
検出部202は、検出制御部210、サイズ設定部211、選択部212、領域設定部213、判別部214、サイズ管理部215を含む。
検出制御部210は、オブジェクトの検出処理における各要素の制御を主に行う。
When the moving image is acquired as an image, the image acquiring unit 201 sequentially transmits each frame image constituting the acquired moving image to the detecting unit 202. Then, the detection unit 202 performs an object detection process for each transmitted frame. When acquiring a still image as an image, the image acquisition unit 201 transmits the acquired still image to the detection unit 202. Hereinafter, a case where one frame in a still image or a moving image is transmitted from the image acquisition unit 201 to the detection unit 202 will be described.
The detection unit 202 includes a detection control unit 210, a size setting unit 211, a selection unit 212, an area setting unit 213, a determination unit 214, and a size management unit 215.
The detection control unit 210 mainly controls each element in the object detection process.

図3は、画像に含まれる領域の一例を示す図である。図3の例では、画像取得部201から送信された画像が、同じ大きさの複数の領域に分割されている様子が示されている。サイズ設定部211は、画像取得部201から送信された画像内に、予め設定された方法で、オブジェクトの検出処理の対象となる複数の領域を設定する。サイズ設定部211は、例えば、画像取得部201から送信された画像を縦・横それぞれをN等分に分割したそれぞれの領域を、オブジェクトの検出処理の対象の領域とする。画像取得部201から送信された画像内に設定されたオブジェクトの検出処理の対象の領域は、画像に対して設定された領域の一例である。
サイズ設定部211は、画像取得部201から送信された画像内に設定した領域(例えば、図3の各領域)毎に、その領域で検出対象とするオブジェクトのサイズの範囲を設定し、設定したサイズの情報の記憶を、サイズ管理部215に指示する。以下では、各領域における検出対象とするオブジェクトのサイズを、検出サイズとする。検出部202は、画像内の各領域それぞれについて、検出サイズの情報が示すサイズのオブジェクトを検出する処理を行うことになる。サイズ管理部215は、サイズ設定部211により設定された検出サイズの情報を、補助記憶装置103等に記憶し、管理する。
FIG. 3 is a diagram illustrating an example of a region included in an image. In the example of FIG. 3, a state in which the image transmitted from the image acquisition unit 201 is divided into a plurality of regions having the same size is shown. The size setting unit 211 sets a plurality of areas to be subjected to object detection processing in the image transmitted from the image acquisition unit 201 by a preset method. For example, the size setting unit 211 sets each region obtained by dividing the image transmitted from the image acquisition unit 201 into N equal parts in the vertical and horizontal directions as the target region for object detection processing. The object detection target region set in the image transmitted from the image acquisition unit 201 is an example of a region set for the image.
The size setting unit 211 sets and sets the size range of the object to be detected in each region set in the image transmitted from the image acquisition unit 201 (for example, each region in FIG. 3). The size management unit 215 is instructed to store the size information. In the following, the size of an object to be detected in each area is referred to as a detection size. The detection unit 202 performs processing for detecting an object having a size indicated by the detection size information for each region in the image. The size management unit 215 stores and manages information on the detected size set by the size setting unit 211 in the auxiliary storage device 103 or the like.

図4は、サイズ管理部215により管理される検出サイズの情報の一例を示す図である。図4のテーブルは、画像内の各領域を示す領域の項目と、検出サイズの項目と、を含む。図4の例では、検出サイズの情報は、最小サイズと最大サイズとの組みの情報であり、最小サイズが示すサイズ以上であり、最大サイズが示すサイズ以下のサイズのオブジェクトを検出対象とすることを示す。また、図4の例では、最小サイズと最大サイズとは、検出されるオブジェクトを含む矩形領域の一辺の長さを示している。
サイズ入力部204は、例えば、画像処理装置100の操作部を介したユーザーによる操作に基づいて、画像内の各領域についての検出サイズの指定を受付ける。また、サイズ入力部204は、例えば、ネットワークI/F105を介して、外部の情報処理装置から画像内の各領域についての検出サイズの情報を受信することで、画像内の各領域についての検出サイズの指定を受付けることとしてもよい。
サイズ管理部215により管理される検出サイズの情報は、図4の例では、検出サイズの情報を含むとするが、検出処理を行う回数や検出されたオブジェクトの平均サイズ等の他の情報を更に含むこととしてもよい。
FIG. 4 is a diagram illustrating an example of detection size information managed by the size management unit 215. The table in FIG. 4 includes an area item indicating each area in the image and a detection size item. In the example of FIG. 4, the detection size information is information of a combination of the minimum size and the maximum size, and an object having a size that is equal to or larger than the size indicated by the minimum size and smaller than the size indicated by the maximum size is to be detected. Indicates. In the example of FIG. 4, the minimum size and the maximum size indicate the length of one side of the rectangular area including the detected object.
The size input unit 204 accepts designation of a detection size for each area in the image based on, for example, an operation by the user via the operation unit of the image processing apparatus 100. Also, the size input unit 204 receives, for example, detection size information for each area in the image from an external information processing apparatus via the network I / F 105, thereby detecting the detection size for each area in the image. It is also possible to accept the designation.
The detection size information managed by the size management unit 215 includes detection size information in the example of FIG. 4, but other information such as the number of detection processes and the average size of detected objects are further included. It may be included.

次に、検出部202によるオブジェクトの検出処理の概要について説明する。本実施形態では、検出部202は、以下のようにしてオブジェクトの検出処理を行う。検出部202は、まず、オブジェクトの検出処理を行う対象の画像の左上隅に、照合パターンを配置する。本実施形態では、検出処理対象の画像内における照合パターンの位置を、その画像内における照合パターンの左上隅のピクセルの位置とする。即ち、検出部202は、オブジェクトの検出処理を行う対象の画像の左上隅と、照合パターンの左上隅と、が重複するように、照合パターンを配置することになる。照合パターンとは、オブジェクトの検出処理のパターンマッチングに用いられる画像である。パターンマッチングとは、ある特定のパターンと比較対象のパターンとが一致する又は近似するか否かを判定する処理である。
パターンマッチングの処理としては、例えば、照合パターンの画素と、照合パターンの画素と重複している検出処理の対象の画像の画素と、の差分を照合パターンの全画素について集計し、集計した差分の値を閾値判定する処理がある。その場合、検出部202は、例えば、集計した差分の値が設定された閾値以下であれば、検出処理の対象の画像における照合パターンと重複している部分を、照合パターンが示すオブジェクトであると判定する。また、検出部202は、例えば、集計した差分の値が設定された閾値より大きければ、検出処理の対象の画像における照合パターンと重複している部分を、照合パターンが示すオブジェクトでないと判定する。
また、パターンマッチングの処理としては、例えば、以下のような処理もある。即ち、照合パターンと、照合パターンと重複している検出処理の対象の画像と、のそれぞれから特徴量を抽出し、抽出した特徴量の差分の値を閾値判定する処理である。抽出される特徴量としては、HAAR−LIKE特徴量、HOG特徴量、SHIFT特徴量等がある。
Next, an outline of object detection processing by the detection unit 202 will be described. In the present embodiment, the detection unit 202 performs an object detection process as follows. First, the detection unit 202 arranges a collation pattern in the upper left corner of an image to be subjected to object detection processing. In this embodiment, the position of the collation pattern in the image to be detected is set as the pixel position of the upper left corner of the collation pattern in the image. That is, the detection unit 202 arranges the collation pattern so that the upper left corner of the target image on which the object detection process is performed overlaps the upper left corner of the collation pattern. A collation pattern is an image used for pattern matching in object detection processing. Pattern matching is a process for determining whether or not a specific pattern matches or approximates a comparison target pattern.
As the pattern matching process, for example, the difference between the pixel of the matching pattern and the pixel of the image to be detected that overlaps the pixel of the matching pattern is totalized for all the pixels of the matching pattern, There is a process for determining a threshold value. In this case, for example, if the summed difference value is equal to or smaller than the set threshold value, the detection unit 202 is an object that indicates a portion that overlaps with the matching pattern in the detection target image as the matching pattern. judge. Further, for example, if the summed difference value is larger than the set threshold value, the detection unit 202 determines that a portion overlapping with the matching pattern in the detection target image is not the object indicated by the matching pattern.
As pattern matching processing, for example, the following processing is also available. In other words, this is a process of extracting a feature amount from each of the collation pattern and the detection target image overlapping the collation pattern, and determining a threshold value of the difference value of the extracted feature amount. The extracted feature quantities include HAAR-LIKE feature quantities, HOG feature quantities, SHIFT feature quantities, and the like.

以下では、より具体的に、本実施形態におけるオブジェクトの検出処理を説明する。
検出制御部210は、画像取得部201から送信された画像(以下では、第1画像)を、選択部212に送信する。
選択部212は、検出制御部210から送信された第1画像から、それぞれ異なる大きさのオブジェクトを検出するために、第1画像を縮小することで、解像度の異なる複数の画像を生成する。
ここで、第1画像を縮小した複数の画像を生成する意義を説明する。本実施形態では、検出部202は、照合パターンと検出処理対象の画像である第1画像との重複部分について、パターンマッチングを行うことで、照合パターンと重複する部分が、照合パターンが示すオブジェクトであるか否かを判定する。しかし、照合パターンとのパターンマッチングで検出できるオブジェクトのサイズは、照合パターンと同じサイズのみである。本実施形態では、検出部202は、第1画像から様々なサイズのオブジェクトを検出する必要がある。そこで、検出部202は、第1画像を縮小した画像を生成し、生成した画像に同様の照合パターンとのパターンマッチングを行うことで、様々なサイズのオブジェクトを検出できるようになる。例えば、検出部202は、照合パターンが20ピクセル四方の矩形である場合、第1画像から20ピクセルのオブジェクトを検出でき、第1画像を1/2に縮小した画像から40ピクセルのオブジェクトを検出できるようになる。即ち、選択部212は、検出対象とするオブジェクトのサイズに応じて、第1画像の縮小画像を生成する。
Hereinafter, the object detection process in the present embodiment will be described more specifically.
The detection control unit 210 transmits the image transmitted from the image acquisition unit 201 (hereinafter, the first image) to the selection unit 212.
The selection unit 212 generates a plurality of images having different resolutions by reducing the first image in order to detect objects of different sizes from the first image transmitted from the detection control unit 210.
Here, the significance of generating a plurality of images obtained by reducing the first image will be described. In the present embodiment, the detection unit 202 performs pattern matching on the overlapping portion between the matching pattern and the first image that is the detection target image, so that the portion overlapping the matching pattern is an object indicated by the matching pattern. It is determined whether or not there is. However, the size of the object that can be detected by pattern matching with the matching pattern is only the same size as the matching pattern. In the present embodiment, the detection unit 202 needs to detect objects of various sizes from the first image. Therefore, the detection unit 202 can detect objects of various sizes by generating an image obtained by reducing the first image and performing pattern matching with the same matching pattern on the generated image. For example, when the matching pattern is a 20-pixel square rectangle, the detection unit 202 can detect a 20-pixel object from the first image and can detect a 40-pixel object from an image obtained by reducing the first image by half. It becomes like this. In other words, the selection unit 212 generates a reduced image of the first image according to the size of the object to be detected.

選択部212は、第1画像の縮小画像を生成する。このとき、サイズ設定部211により設定された検出サイズの範囲でオブジェクトを検出できるように縮小画像の数を決定し、検出対象画像群を得る。例えば、第1画像の上半分に存在する各領域についての検出サイズが、最小サイズが20ピクセル、最大サイズが130ピクセルであるとする。また、第1画像の下半分に存在する各領域についての検出サイズが、最小サイズが100ピクセル、最大サイズが150ピクセルであるとする。その場合、選択部212は、例えば、20ピクセルから150ピクセルまでのサイズのオブジェクトを検出できるように、第1画像の縮小画像を多段階に生成する。選択部212は、例えば、また、照合パターンのサイズよりも小さいオブジェクトを検出したい場合、選択部212は、第1画像の拡大画像を生成することとしてもよい。その場合、検出部202は、第1画像の拡大画像に対して、照合パターンを用いたオブジェクトの検出処理を行うことになる。
図5は、第1画像と第1画像の縮小画像との一例を示す図である。画像411は、第1画像であり、画像412、画像413は、第1画像の縮小画像である。照合パターン401は、本実施形態におけるオブジェクトの検出処理に利用される照合パターンであり、検出対象のオブジェクトである人体を示す画像である。
The selection unit 212 generates a reduced image of the first image. At this time, the number of reduced images is determined so that an object can be detected within the detection size range set by the size setting unit 211, and a detection target image group is obtained. For example, it is assumed that the detection size for each region existing in the upper half of the first image has a minimum size of 20 pixels and a maximum size of 130 pixels. Further, it is assumed that the detection size for each region existing in the lower half of the first image is 100 pixels for the minimum size and 150 pixels for the maximum size. In that case, the selection unit 212 generates a reduced image of the first image in multiple stages so that, for example, an object having a size from 20 pixels to 150 pixels can be detected. For example, when the selection unit 212 wants to detect an object smaller than the size of the matching pattern, the selection unit 212 may generate an enlarged image of the first image. In this case, the detection unit 202 performs an object detection process using the matching pattern on the enlarged image of the first image.
FIG. 5 is a diagram illustrating an example of the first image and a reduced image of the first image. The image 411 is a first image, and the images 412 and 413 are reduced images of the first image. A collation pattern 401 is a collation pattern used for object detection processing in the present embodiment, and is an image showing a human body that is an object to be detected.

次に、検出部202は、第1画像及び選択部212により生成された第1画像の縮小画像に対して、照合パターン401を用いたオブジェクトの検出処理を行う。選択部212は、第1画像及び縮小画像の中から、検出処理の対象となる画像を1つずつ選択し、領域設定部213に送信する。ここで、選択部212が画像411を選択した場合の処理を説明する。判別部214は、例えば、パターン管理部205を介して、補助記憶装置103等から照合パターン401の情報を取得し、領域設定部213に送信する。
領域設定部213は、予め設定された初期位置に、照合パターン401を配置し、予め設定された移動方法で、照合パターン401を移動させる。領域設定部213は、画像411の左上隅に照合パターン401を配置する。領域設定部213は、照合パターン401を左側から右側へ、上から下に向かって順次、移動させる。例えば、領域設定部213は、照合パターン401を左側から右側へ、設定されたピクセルずつ(例えば、1ピクセルずつ、5ピクセルずつ等)移動させ、照合パターン401の右隅が画像411の右隅と重複するまで移動させる。次に、領域設定部213は、照合パターン401を左隅に移動させ、設定されたピクセル(例えば、1ピクセル、5ピクセル等)だけ下に移動させる。そして、領域設定部213は、再び、照合パターン401を左側から右側へ、設定されたピクセルずつ移動させ、照合パターン401の右隅が画像411の右隅と重複するまで移動させる。領域設定部213は、以上の処理を、照合パターン401の右下隅が画像411の右下隅と重複するまで繰り返す。
Next, the detection unit 202 performs object detection processing using the matching pattern 401 on the reduced image of the first image generated by the first image and selection unit 212. The selection unit 212 selects one image to be detected from the first image and the reduced image one by one, and transmits the selected image to the region setting unit 213. Here, processing when the selection unit 212 selects the image 411 will be described. For example, the determination unit 214 acquires information on the verification pattern 401 from the auxiliary storage device 103 and the like via the pattern management unit 205 and transmits the information to the region setting unit 213.
The area setting unit 213 arranges the collation pattern 401 at a preset initial position, and moves the collation pattern 401 by a preset movement method. The area setting unit 213 arranges the matching pattern 401 at the upper left corner of the image 411. The area setting unit 213 sequentially moves the collation pattern 401 from the left side to the right side, from top to bottom. For example, the region setting unit 213 moves the collation pattern 401 from the left side to the right side by set pixels (for example, one pixel at a time, five pixels, etc.), and the right corner of the collation pattern 401 is the right corner of the image 411. Move until it overlaps. Next, the region setting unit 213 moves the matching pattern 401 to the left corner, and moves it downward by a set pixel (for example, 1 pixel, 5 pixels, etc.). Then, the area setting unit 213 again moves the matching pattern 401 from the left side to the right side by the set pixels until the right corner of the matching pattern 401 overlaps the right corner of the image 411. The region setting unit 213 repeats the above processing until the lower right corner of the matching pattern 401 overlaps with the lower right corner of the image 411.

本実施形態では、第1画像内に複数の領域が設定されており、領域毎に、検出対象とするオブジェクトのサイズが設定されている。そこで、領域設定部213によって、照合パターン401が移動する毎に、判別部214は、以下のような処理を行う。即ち、判別部214は、照合パターン401の位置(左上隅のピクセルの位置)が、画像411のどの領域に属するかを特定する。そして、判別部214は、特定した領域に対応する検出サイズが示す範囲に、現在検出処理中の画像(画像411)に対応するオブジェクトのサイズが含まれるか否かを判定する。判別部214は、含まれると判定した場合、現在の位置の照合パターン401と、現在の位置の照合パターン401と重複する画像411の領域と、のパターンマッチングを行うことで、オブジェクトの検出処理を行う。判別部214は、含まれないと判定した場合、現在の位置の照合パターン401と、現在の位置の照合パターン401と重複する画像411の領域と、のパターンマッチングによるオブジェクトの検出処理を行わない。これにより、画像処理装置100は、検出サイズ以外のサイズのオブジェクトの検出処理を行わず、処理の負担を軽減し、処理を高速化できる。
検出制御部210は、判別部214によりオブジェクトが検出された際、照合パターン401の位置情報と検出されたオブジェクトのサイズ情報とを、サイズ設定部211に出力する。サイズ設定部211は、検出制御部210から出力された照合パターン401の位置情報と、検出されたオブジェクトのサイズ情報と、に基づいて、照合パターン401が含まれる領域の検出サイズを更新する。本実施形態では、照合パターン401が位置する領域(照合パターン401の左上隅のピクセルが存在する領域)に、照合パターン401が含まれるものとする。
検出部202は、第1画像の縮小画像である画像412、画像413等の第1画像の縮小画像に対しても同様に、オブジェクトの検出処理を行う。検出部202は、第1画像の縮小画像に対するオブジェクトの検出結果が示す位置情報、サイズ情報を、第1画像における位置情報、サイズ情報に変換してから、検出サイズの更新を行う。
In the present embodiment, a plurality of areas are set in the first image, and the size of the object to be detected is set for each area. Therefore, each time the collation pattern 401 is moved by the area setting unit 213, the determination unit 214 performs the following processing. That is, the determination unit 214 specifies to which region of the image 411 the position of the matching pattern 401 (pixel position at the upper left corner) belongs. Then, the determination unit 214 determines whether or not the range indicated by the detection size corresponding to the identified area includes the size of the object corresponding to the image (image 411) currently being detected. If the determination unit 214 determines that it is included, the object detection processing is performed by performing pattern matching between the matching pattern 401 at the current position and the region of the image 411 that overlaps the matching pattern 401 at the current position. Do. If the determination unit 214 determines that the pattern is not included, the determination unit 214 does not perform object detection processing by pattern matching between the matching pattern 401 at the current position and the region of the image 411 that overlaps the matching pattern 401 at the current position. As a result, the image processing apparatus 100 can reduce the processing load and speed up the processing without performing detection processing of an object having a size other than the detection size.
When the determination unit 214 detects an object, the detection control unit 210 outputs the position information of the matching pattern 401 and the size information of the detected object to the size setting unit 211. The size setting unit 211 updates the detection size of the area including the collation pattern 401 based on the position information of the collation pattern 401 output from the detection control unit 210 and the size information of the detected object. In the present embodiment, it is assumed that the matching pattern 401 is included in the region where the matching pattern 401 is located (the region where the upper left corner pixel of the matching pattern 401 exists).
Similarly, the detection unit 202 performs object detection processing on the reduced images of the first image such as the image 412 and the image 413 that are reduced images of the first image. The detection unit 202 updates the detection size after converting the position information and size information indicated by the object detection result for the reduced image of the first image into the position information and size information in the first image.

次にサイズ設定部211による検出サイズの更新処理について説明する。図4に示すように、サイズ管理部215が領域毎の検出サイズの情報を管理している状態で、判別部214により新たにオブジェクトが検出された場合、について説明する。サイズ設定部211は、判別部214から検出されたオブジェクトの位置情報とサイズの情報とを入力される。そして、サイズ設定部211は、以下の式1、式2に基づいて検出サイズを更新する。
HBSmin = (HBS_new + HBSmin_old) * γ / 2 (式1)
HBSmax = (HBS_new + HBSmax_old) * γ / 2 (式2)
式1、式2において、HBSminは、更新後の検出サイズにおける最小サイズである。HBSmaxは、更新後の検出サイズにおける最大サイズである。HBS_newは、検出されたオブジェクトのサイズである。HBSmin_oldは、更新前の検出サイズにおける最小サイズである。HBSmax_oldは、更新前の検出サイズにおける最大サイズである。γは、更新後の検出サイズを調整するサイズ係数であり、任意の値をとる。サイズ設定部211は、γの値を、適宜変更することとしてもよい。
サイズ設定部211は、式1、式2を用いて、検出サイズを更新することで、過去に検出されたオブジェクトのサイズの結果を、統計情報として検出サイズに反映することができる。検出サイズが更新された後においては、検出部202は、過去の検出結果を考慮した更新後の検出サイズの範囲(HBSmin〜HBSmax)でオブジェクトの検出を行うことで、無駄なサイズのオブジェクトの検出処理を省くことができる。
Next, detection size update processing by the size setting unit 211 will be described. As shown in FIG. 4, a case will be described in which a new object is detected by the determination unit 214 while the size management unit 215 manages information on the detection size for each region. The size setting unit 211 receives the position information and size information of the object detected from the determination unit 214. Then, the size setting unit 211 updates the detection size based on the following formulas 1 and 2.
HBSmin = (HBS_new + HBSmin_old) * γ / 2 (Formula 1)
HBSmax = (HBS_new + HBSmax_old) * γ / 2 (Formula 2)
In Equations 1 and 2, HBSmin is the minimum size in the detection size after update. HBSmax is the maximum size in the detection size after update. HBS_new is the size of the detected object. HBSmin_old is the minimum size in the detection size before update. HBSmax_old is the maximum size in the detection size before update. γ is a size coefficient for adjusting the detection size after update, and takes an arbitrary value. The size setting unit 211 may appropriately change the value of γ.
The size setting unit 211 can reflect the result of the size of the object detected in the past as statistical information on the detection size by updating the detection size using Expressions 1 and 2. After the detection size is updated, the detection unit 202 detects an object having a useless size by detecting an object in the updated detection size range (HBSmin to HBSmax) in consideration of past detection results. Processing can be omitted.

以上、静止画である画像が画像取得部201から送信された場合の検出部202の処理について説明した。検出部202は、動画である画像が画像取得部201から送信された場合には、動画に含まれる各フレームについて、本実施形態で説明した処理を繰り返し行う。
出力部203は、検出部202による処理結果を示す情報を出力する。出力部203は、例えば、画像処理装置100の表示部や、無線又は有線を介して画像処理装置100と接続された外部の装置の表示部等に、処理結果を示す情報を出力する。また、出力部203は、例えば、無線又は有線を介して画像処理装置100と接続された外部のディスプレイ等の表示装置に出力してもよい。また、出力部203は、検出部202による処理結果を示す情報をそのまま出力してもよいし、検出部202による処理結果を示す情報を、可視可能なグラフィックスとして出力してもよい。検出部202による処理結果を示す情報とは、例えば、検出されたオブジェクトの位置、及びサイズを示す情報や、サイズ設定部211により更新された各領域の検出サイズを示す情報等である。
検出部202は、これらの処理を繰り返し行って各種のサイズのオブジェクトの検出処理を行うと処理を終了する。検出部202は、例えば、規定の期間だけ処理を続けたら、全体の処理が終了以していなくても、処理を終了してもよいし、検出した人体の数、人体検出処理を実行した回数が設定された閾値以上となったら処理を終了してもよい。
The processing of the detection unit 202 when an image that is a still image is transmitted from the image acquisition unit 201 has been described above. When an image that is a moving image is transmitted from the image acquisition unit 201, the detection unit 202 repeatedly performs the processing described in the present embodiment for each frame included in the moving image.
The output unit 203 outputs information indicating the processing result by the detection unit 202. The output unit 203 outputs information indicating the processing result to, for example, a display unit of the image processing apparatus 100 or a display unit of an external apparatus connected to the image processing apparatus 100 via wireless or wired communication. Further, the output unit 203 may output to a display device such as an external display connected to the image processing apparatus 100 via, for example, wireless or wired connection. The output unit 203 may output information indicating the processing result by the detection unit 202 as it is, or may output information indicating the processing result by the detection unit 202 as visible graphics. The information indicating the processing result by the detection unit 202 is, for example, information indicating the position and size of the detected object, information indicating the detection size of each area updated by the size setting unit 211, and the like.
When the detection unit 202 repeatedly performs these processes to detect objects of various sizes, the process ends. For example, if the detection unit 202 continues the process for a specified period, the process may be completed even if the entire process is not completed, or the number of detected human bodies and the number of times the human body detection process is executed. The process may be terminated when becomes equal to or greater than the set threshold.

図6は、画像処理装置100の処理の一例を示すフローチャートである。図6を用いて、画像処理装置100の本実施形態の処理の詳細を説明する。
S501において、サイズ入力部204は、サイズ設定部211を介して、検出処理の対象の画像内に設定された領域毎に検出サイズの初期化を行う。サイズ入力部204は、例えば、画像処理装置100の操作部を介したユーザーによる操作に基づいて、検出処理の対象である画像内の各領域についての検出サイズの指定を受付ける。そして、サイズ入力部204は、受け付けた指定が示す検出サイズを各領域の検出サイズの初期値とするように、サイズ設定部211に指示する。サイズ設定部211は、指示に応じて、サイズ入力部204が受け付けた指定が示す検出サイズの値を、各領域の検出サイズの初期値として、補助記憶装置103等に記憶する。
S502において、画像取得部201は、外部から供給された画像を取得する。図5の例では、画像取得部201は、静止画を取得したとする。そして、画像取得部201は、取得した画像を、検出部202に送信する。そして、検出部202は、画像取得部201から送信された画像に対して、オブジェクトの検出処理を開始する。
S503において、検出制御部210は、S502で取得した画像からオブジェクトを検出する処理が完了したか否かを判定する。検出制御部210は、S502で取得した画像からオブジェクトを検出する処理が完了したと判定した場合、S507の処理に進む。また、検出制御部210は、S502で取得した画像からオブジェクトを検出する処理が完了していないと判定した場合、S504の処理に進む。
FIG. 6 is a flowchart illustrating an example of processing of the image processing apparatus 100. Details of the processing of the present embodiment of the image processing apparatus 100 will be described with reference to FIG.
In step S <b> 501, the size input unit 204 initializes the detection size for each area set in the detection target image via the size setting unit 211. The size input unit 204 accepts designation of the detection size for each region in the image that is the target of detection processing based on, for example, an operation by the user via the operation unit of the image processing apparatus 100. Then, the size input unit 204 instructs the size setting unit 211 to set the detected size indicated by the received designation as the initial value of the detected size of each area. In response to the instruction, the size setting unit 211 stores the detected size value indicated by the designation received by the size input unit 204 in the auxiliary storage device 103 or the like as the initial value of the detected size of each area.
In step S <b> 502, the image acquisition unit 201 acquires an image supplied from the outside. In the example of FIG. 5, it is assumed that the image acquisition unit 201 has acquired a still image. Then, the image acquisition unit 201 transmits the acquired image to the detection unit 202. Then, the detection unit 202 starts object detection processing on the image transmitted from the image acquisition unit 201.
In step S503, the detection control unit 210 determines whether the processing for detecting an object from the image acquired in step S502 is completed. If the detection control unit 210 determines that the process of detecting an object from the image acquired in S502 is completed, the detection control unit 210 proceeds to the process of S507. If the detection control unit 210 determines that the process of detecting an object from the image acquired in S502 has not been completed, the process proceeds to S504.

S504において、判別部214は、S502で取得された画像から、オブジェクトを検出する。S504の処理は、図4で説明した処理と同様の処理である。即ち、判別部214は、S502で取得された画像又はその画像の縮小画像のうちの何れかの画像を選択する。そして、判別部214は、選択した画像から、照合パターンを用いてパターンマッチングを行うことで、現在の検出対象のサイズのオブジェクトを検出する。
S505において、検出制御部210は、S504での検出処理でオブジェクトが検出されたか否かを判定する。検出制御部210は、S504での検出処理でオブジェクトが検出されたと判定した場合、S504で検出されたオブジェクトの位置情報とサイズ情報とをサイズ設定部211に送信し、S506の処理に進む。検出制御部210は、S504での検出処理でオブジェクトが検出されなかったと判定した場合、S503の処理に進む。
S506において、サイズ設定部211は、S505で送信された検出されたオブジェクトの位置情報から、そのオブジェクトがどの領域で検出されたかを特定する。そして、サイズ設定部211は、S505で送信された検出されたオブジェクトのサイズ情報に基づいて、特定した領域に対応する検出サイズの情報を更新する。
S507において、検出制御部210は、例えば、S502で取得された画像に対するオブジェクトの検出結果を示す情報を、外部のディスプレイ等の外部出力部に出力する。外部出力部は、出力された情報を、表示する等して、出力する。
In step S504, the determination unit 214 detects an object from the image acquired in step S502. The process of S504 is the same process as the process described in FIG. That is, the determination unit 214 selects any one of the image acquired in S502 or the reduced image of the image. Then, the determination unit 214 detects an object of the current detection target size by performing pattern matching using the matching pattern from the selected image.
In step S505, the detection control unit 210 determines whether an object is detected in the detection process in step S504. If the detection control unit 210 determines that the object has been detected in the detection process in S504, the detection control unit 210 transmits the position information and size information of the object detected in S504 to the size setting unit 211, and proceeds to the process of S506. If the detection control unit 210 determines that the object is not detected in the detection process in S504, the process proceeds to S503.
In step S506, the size setting unit 211 identifies in which region the object is detected from the position information of the detected object transmitted in step S505. Then, the size setting unit 211 updates the detected size information corresponding to the identified area based on the size information of the detected object transmitted in S505.
In S507, the detection control unit 210 outputs, for example, information indicating the detection result of the object for the image acquired in S502 to an external output unit such as an external display. The external output unit outputs and outputs the output information.

以上、本実施形態では、画像処理装置100は、オブジェクトの検出処理の対象である画像内の設定された領域毎に、検出処理を行うオブジェクトのサイズを示す検出サイズの情報の初期値を設定した。そして、画像処理装置100は、オブジェクトの検出処理の対象である画像内の設定された領域毎に、対応する検出サイズが示す範囲のサイズのオブジェクトを検出し、検出する度に、検出サイズの情報を更新することとした。
このような処理により、画像処理装置100は、画像処理装置100と被写体との距離の情報を用いずとも、領域毎に、検出対象とするオブジェクトのサイズを適切な値に更新することができる。即ち、画像処理装置100は、オブジェクトを検出する度に、設定された領域の検出サイズの情報を更新し、無駄なサイズのオブジェクトを検出する処理の実行を省くことができる。また、画像処理装置100は、撮像装置の配置位置が変更する度に、撮像装置の画角や撮像装置と被写体との距離等の情報を設定する必要もない。これにより、画像処理装置100は、より簡易に、オブジェクトの検出処理を高速化することができる。
As described above, in the present embodiment, the image processing apparatus 100 sets the initial value of the detection size information indicating the size of the object to be detected for each set area in the image that is the object of the object detection process. . Then, the image processing apparatus 100 detects an object having a size within a range indicated by the corresponding detection size for each set region in the image that is a target of the object detection processing, and each time the detection is performed, information on the detection size is detected. It was decided to update.
Through such processing, the image processing apparatus 100 can update the size of the object to be detected to an appropriate value for each region without using information on the distance between the image processing apparatus 100 and the subject. In other words, the image processing apparatus 100 can update the detection size information of the set area each time an object is detected, and omit the execution of processing for detecting an object having a useless size. Further, the image processing apparatus 100 does not need to set information such as the angle of view of the imaging apparatus and the distance between the imaging apparatus and the subject each time the arrangement position of the imaging apparatus is changed. Thereby, the image processing apparatus 100 can speed up the object detection process more easily.

本実施形態では、画像処理装置は、画像処理機能を有する監視カメラ等の撮像装置であるとした。しかし、画像処理装置100は、外部の撮像装置により撮影された画像を取得し、取得した画像に対して画像処理を行うパーソナルコンピュータ、サーバ装置等の情報処理装置であってもよい。
本実施形態では、検出サイズの情報は、対応する領域における検出対象となるオブジェクトの最小サイズの情報と、最大サイズの情報と、であるとした。しかし、検出サイズの情報は、例えば、検出対象となるオブジェクトのサイズの範囲の中央値の情報と、その範囲の幅の情報と、であってもよい。
本実施形態では、検出処理対象の画像内における照合パターンの位置を、その画像内における照合パターンの左上隅のピクセルの位置とした。しかし、検出処理対象の画像内における照合パターンの位置を、その画像内における照合パターンの中央のピクセル等の他のピクセルの位置としてもよい。
本実施形態では、検出部202は、検出対象の画像とその縮小画像に対して、照合パターンを用いてパターンマッチングを行うことで、オブジェクトの検出処理を行った。しかし、検出部202は、検出対象の画像に対して、照合パターン及び、各領域の検出サイズの大きさに拡大・縮小された照合パターンを用いて、パターンマッチングすることで、オブジェクトの検出処理を行うこととしてもよい。
In the present embodiment, the image processing apparatus is an imaging apparatus such as a surveillance camera having an image processing function. However, the image processing apparatus 100 may be an information processing apparatus such as a personal computer or a server apparatus that acquires an image captured by an external imaging apparatus and performs image processing on the acquired image.
In the present embodiment, the detection size information is the minimum size information and the maximum size information of the object to be detected in the corresponding region. However, the detection size information may be, for example, information on the median value of the size range of the object to be detected and information on the width of the range.
In this embodiment, the position of the collation pattern in the image to be detected is set as the pixel position of the upper left corner of the collation pattern in the image. However, the position of the collation pattern in the image to be detected may be the position of another pixel such as the center pixel of the collation pattern in the image.
In the present embodiment, the detection unit 202 performs object detection processing by performing pattern matching on the detection target image and its reduced image using a matching pattern. However, the detection unit 202 performs object detection processing by performing pattern matching on the detection target image using a matching pattern and a matching pattern enlarged or reduced to the size of the detection size of each region. It may be done.

本実施形態では、サイズ設定部211は、画像取得部201により取得される画像が分割された複数の領域毎に検出サイズを設定することとした。しかし、サイズ設定部211は、画像取得部201により取得される画像に、設定された個数(例えば、1個、2個等)の検出処理の対象の領域を設定し、その領域について、検出サイズを設定することとしてもよい。例えば、サイズ設定部211は、画像取得部201により取得される画像全体を1つの領域として、その領域について、検出サイズを設定することとしてもよい。また、サイズ設定部211は、例えば、画像取得部201により取得される画像の中央を中心とした設定された大きさの矩形領域を1つ設定し、その領域について、検出サイズを設定することとしてもよい。その場合、検出部202は、その矩形領域以外の部分について、オブジェクトの検出処理を行わないこととなる。
また、サイズ設定部211は、画像処理装置100の操作部を介した操作や、外部の装置からの領域の指定情報に基づいて、検出対象となる領域の指定を受付けることとしてもよい。そして、サイズ設定部211は、受け付けた指定が示す領域を、検出対象となる領域として設定することとしてもよい。こうすることで、画像処理装置100は、ユーザーが希望する領域のみに対してオブジェクトの検出処理を行い、他の部分について検出処理を行わないことになり、不要な処理の負担を軽減できる。
例えば、画像取得部201により取得される画像中で、壁しか撮影され得ない部分については、検出対象のオブジェクトである人体が撮影され得ないこととなる。そこで、画像処理装置100は、このような部分について、検出サイズが設定される領域に含めないこととして、オブジェクトの検出処理を行わないようにしてもよい。これにより、画像処理装置100は、不要な処理の負担の増大を防止することができる。
In the present embodiment, the size setting unit 211 sets the detection size for each of a plurality of areas into which the image acquired by the image acquisition unit 201 is divided. However, the size setting unit 211 sets detection target areas for the set number (for example, one, two, etc.) in the image acquired by the image acquisition unit 201, and detects the detection size for that area. It is good also as setting. For example, the size setting unit 211 may set the entire image acquired by the image acquisition unit 201 as one region and set the detection size for the region. In addition, the size setting unit 211 sets, for example, one rectangular area having a set size centered on the center of the image acquired by the image acquisition unit 201, and sets a detection size for the area. Also good. In this case, the detection unit 202 does not perform the object detection process for portions other than the rectangular area.
In addition, the size setting unit 211 may accept designation of a region to be detected based on an operation via the operation unit of the image processing apparatus 100 or based on region designation information from an external device. Then, the size setting unit 211 may set an area indicated by the received designation as an area to be detected. By doing so, the image processing apparatus 100 performs the object detection process only on the region desired by the user and does not perform the detection process on other portions, and can reduce the burden of unnecessary processing.
For example, in the image acquired by the image acquisition unit 201, a human body that is an object to be detected cannot be captured for a portion where only a wall can be captured. Therefore, the image processing apparatus 100 may not perform the object detection process by not including such a portion in the region where the detection size is set. Thereby, the image processing apparatus 100 can prevent an increase in unnecessary processing burden.

<実施形態2>
本実施形態では、オブジェクトの検出処理の対象である画像を撮影する撮像手段(撮影部104を有する画像処理装置100、外部の撮像装置等)の画角が変更した際の画像処理装置100の処理を説明する。撮像手段の画角とは、その撮像手段により撮影される範囲のことである。
以下では、実施形態1と異なる点について説明する。
本実施形態の画像処理装置100のハードウェア構成及び機能構成は、実施形態1と同様である。
<Embodiment 2>
In the present embodiment, the processing of the image processing apparatus 100 when the angle of view of an imaging unit (an image processing apparatus 100 having the imaging unit 104, an external imaging apparatus, or the like) that captures an image that is a target of object detection processing is changed. Will be explained. The angle of view of the imaging means is a range photographed by the imaging means.
Hereinafter, differences from the first embodiment will be described.
The hardware configuration and functional configuration of the image processing apparatus 100 of the present embodiment are the same as those of the first embodiment.

本実施形態では、画像処理装置100は、実施形態1と同様に、画像処理機能を有する監視カメラ等の撮像装置であるとする。画像処理装置100において、パンチルトズーム移動が発生し、画像処理装置100の画角が変更された場合について説明する。画角の変更が発生した場合、画像取得部201により取得された画像上の各領域で撮影され得るオブジェクトのサイズも変更される。
そこで、画像処理装置100の画角が変更された場合、サイズ設定部211は、画像処理装置100の画角の変更(パンチルトズーム移動量)に基づき、サイズ管理部215により管理される検出サイズの情報を更新する。サイズ設定部211は、例えば、画角が2倍ズームするように変更された場合、各領域の検出サイズの最小サイズと最大サイズとを2倍にするように更新する。
画像処理装置100は、検出サイズの情報の更新後は、その更新された検出サイズの情報に基づいて、オブジェクトの検出を行い、画像処理装置100の画角の変更(パンチルトズーム移動)が行われる度に、同様の処理は繰り返す。
以上の処理により、画像処理装置100は、画像処理装置100の画角が変更された際に、検出処理の対象の画像内の各領域の検出サイズを適切に更新できる。
In the present embodiment, the image processing apparatus 100 is assumed to be an imaging apparatus such as a surveillance camera having an image processing function, as in the first embodiment. A case where pan / tilt / zoom movement occurs in the image processing apparatus 100 and the angle of view of the image processing apparatus 100 is changed will be described. When the angle of view changes, the size of the object that can be photographed in each area on the image acquired by the image acquisition unit 201 is also changed.
Therefore, when the angle of view of the image processing apparatus 100 is changed, the size setting unit 211 detects the detected size managed by the size management unit 215 based on the change of the angle of view (pan / tilt / zoom movement amount) of the image processing apparatus 100. Update information. For example, when the angle of view is changed to double zoom, the size setting unit 211 updates the minimum size and the maximum size of the detection size of each region to double.
After updating the detection size information, the image processing apparatus 100 detects an object based on the updated detection size information, and changes the angle of view (pan / tilt / zoom movement) of the image processing apparatus 100. The same process is repeated each time.
With the above processing, the image processing apparatus 100 can appropriately update the detection size of each area in the image to be detected when the angle of view of the image processing apparatus 100 is changed.

また、予め画像処理装置100の画角が、複数のプリセット位置として設定されている場合、サイズ管理部215は、そのプリセット位置毎に、別個に、各領域についての検出サイズの情報を管理することとしてもよい。
図7は、画角変更の際の処理の一例を説明する図である。図7の例は、画像処理装置100について、予め、プリセット位置Aにおける画角、プリセット位置Bにおける画角、プリセット位置Cにおける画角が設定されている様子を示す。サイズ管理部215は、各プリセット位置に対応する各領域の検出サイズの情報をリスト化した検出サイズリスト611〜613を、補助記憶装置103に記憶し、管理している。検出部202は、現在の画像処理装置100の画角が、プリセット位置Aにおける画角、プリセット位置Bにおける画角、プリセット位置Cにおける画角の何れであるかを特定する。そして、検出部202は、特定した画角に対応する検出サイズの情報を用いて、オブジェクトの検出を行い、検出処理の結果を用いて、その検出サイズの情報を更新する。そして、画像処理装置100の画角の切り替えが発生したら、検出部202は、検出処理に利用する検出サイズの情報を切り替える。例えば、プリセット位置Aにおける画角からプリセット位置Bにおける画角への切り替えが発生したら、検出部202は、利用する検出サイズの情報を、検出サイズリスト611から検出サイズリスト612に切り替える。そして、検出部202は、切り替えた検出サイズの情報を用いて、オブジェクトを検出し、検出結果を用いて、その検出サイズの情報を更新する。
以上の処理により、画像処理装置100は、画像処理装置100の画角が一度変更された後に、元の画角に戻った等の場合、以前に更新された元の画角用の検出サイズを利用することができる。これにより、画像処理装置100は、元の画角について、検出サイズを初期値から再度更新する必要がなくなり、不要な処理の負担を軽減できる。
In addition, when the angle of view of the image processing apparatus 100 is set in advance as a plurality of preset positions, the size management unit 215 manages information on the detected size for each region separately for each preset position. It is good.
FIG. 7 is a diagram for explaining an example of processing for changing the angle of view. The example of FIG. 7 shows a state in which the angle of view at the preset position A, the angle of view at the preset position B, and the angle of view at the preset position C are set in advance for the image processing apparatus 100. The size management unit 215 stores and manages, in the auxiliary storage device 103, detection size lists 611 to 613 that list detection size information of each area corresponding to each preset position. The detection unit 202 specifies whether the current angle of view of the image processing apparatus 100 is the angle of view at the preset position A, the angle of view at the preset position B, or the angle of view at the preset position C. Then, the detection unit 202 detects an object using information on the detected size corresponding to the specified angle of view, and updates the information on the detected size using the result of the detection process. When the angle of view of the image processing apparatus 100 is switched, the detection unit 202 switches detection size information used for the detection process. For example, when switching from the angle of view at the preset position A to the angle of view at the preset position B occurs, the detection unit 202 switches the detection size information to be used from the detection size list 611 to the detection size list 612. Then, the detection unit 202 detects an object using the switched detection size information, and updates the detection size information using the detection result.
With the above processing, the image processing apparatus 100 changes the detection size for the original angle of view that has been updated before, for example, when the angle of view of the image processing apparatus 100 is once changed and then returned to the original angle of view. Can be used. Thereby, the image processing apparatus 100 does not need to update the detection size from the initial value again for the original angle of view, and can reduce the burden of unnecessary processing.

<実施形態3>
実施形態1では、サイズ設定部211は、検出処理対象の画像に設定された同じ大きさの複数の領域それぞれについて、検出サイズの初期設定を行った。しかし、本実施形態では、サイズ設定部211は、オブジェクトの検出処理の対象の画像に対して、その画像内でのオブジェクトの写り方を考慮して、オブジェクトの検出処理の対象となる領域を設定する。以下で本実施形態の処理を説明する。
図8(a)は、画像処理装置100により撮影が行われている状況の一例を示す図である。図8(a)の例では、画像処理装置100は、撮影部104を介して、通路に存在する人物701、702を含む複数の人物を撮影している。図8(b)は、図8(a)の状況で画像処理装置100により撮影された画像である。
図8(a)の例では、画像処理装置100は、通路を斜め下に見下ろす角度で設置されている。このような環境において、画像処理装置100により撮影された画像は、下側が画像処理装置100に相対的に近い部分を撮影した画像となり、上側がが画像処理装置100に相対的に遠い部分を撮影した画像となる。図8(b)の画像において、画像処理装置100に最も近い人物701が他の人物よりも大きく撮影され、画像処理装置100に最も遠い人物702が他の人物よりも小さく撮影される。したがって、画像処理装置100に近い程、人物の身長差等の個人差により、画像内での人物のサイズのばらつきが大きくなると予測される。即ち、画像の下の方が、検出されるオブジェクトのサイズのばらつきが、画像の上の方よりも大きくなると予測される。
このような予測を踏まえ、複数の人物を見下ろすように撮影された画像については、サイズ設定部211は、以下のように、検出処理の対象の領域を設定する。即ち、サイズ設定部211は、図9のように画像を分割して、分割した各領域を検出処理の対象である領域として設定する。図9の例では、画像の下の領域802に設定された各領域は、画像の上の領域801に設定された各領域よりも小さくなっている。検出部202は、領域802について、より細かい領域毎に、検出サイズの情報を更新し、領域801に対してより精度よく、オブジェクトの検出を行うことができる。
<Embodiment 3>
In the first embodiment, the size setting unit 211 performs the initial setting of the detection size for each of a plurality of regions having the same size set in the detection processing target image. However, in the present embodiment, the size setting unit 211 sets an area to be subjected to object detection processing for an image to be subjected to object detection processing in consideration of how the object appears in the image. To do. The process of this embodiment will be described below.
FIG. 8A is a diagram illustrating an example of a situation in which shooting is performed by the image processing apparatus 100. In the example of FIG. 8A, the image processing apparatus 100 photographs a plurality of persons including persons 701 and 702 existing in the passage via the photographing unit 104. FIG. 8B is an image taken by the image processing apparatus 100 in the situation of FIG.
In the example of FIG. 8A, the image processing apparatus 100 is installed at an angle that looks down the passage obliquely downward. In such an environment, the image captured by the image processing apparatus 100 is an image in which the lower side is a portion that is relatively close to the image processing apparatus 100 and the upper side is a portion that is relatively far from the image processing apparatus 100. The resulting image. In the image of FIG. 8B, the person 701 closest to the image processing apparatus 100 is photographed larger than the other person, and the person 702 farthest from the image processing apparatus 100 is photographed smaller than the other person. Accordingly, the closer to the image processing apparatus 100, the larger the variation in the size of the person in the image due to individual differences such as the height difference of the person. That is, the size of the detected object is predicted to be larger in the lower part of the image than in the upper part of the image.
Based on such predictions, the size setting unit 211 sets a region to be subjected to detection processing as follows for an image shot so as to look down at a plurality of persons. That is, the size setting unit 211 divides an image as shown in FIG. 9 and sets each divided area as an area to be detected. In the example of FIG. 9, each area set in the area 802 below the image is smaller than each area set in the area 801 above the image. The detection unit 202 can update the detection size information for each finer area of the area 802 and can detect the object with respect to the area 801 with higher accuracy.

以上の処理により、画像処理装置100は、画像内におけるオブジェクトの見え方を考慮して、検出対象の領域を設定し、設定した領域毎に検出サイズの情報を更新することで、より精度よくオブジェクトを検出できる。   With the above processing, the image processing apparatus 100 sets the detection target area in consideration of the appearance of the object in the image, and updates the detection size information for each set area, thereby improving the object accuracy. Can be detected.

<実施形態4>
本実施形態では、出力部203がサイズ管理部215により管理されている図4に示すような検出サイズの情報を出力する処理を説明する。
出力部203は、検出サイズの情報を、リアルタイム又は設定されたタイミングで、画像処理装置100の表示部や外部のディスプレイ等に表示することで出力し、ユーザーが確認することができるようにすることができる。
図10(a)は、検出サイズの表示結果の一例を示す図である。出力部203は、領域毎の検出サイズの情報から、その領域に対応する検出対象であるオブジェクトの平均サイズを求める。そして、出力部203は、求めた平均サイズに応じて、オブジェクト型のアイコンを拡大縮小して、画像内の各領域の場所に表示する。このように、画像処理装置100は、各領域の検出サイズの大よその大きさを、各領域と対応付けて表示することで、ユーザーが各領域における検出対象のオブジェクトのサイズがどの程度であるかを視覚的に把握できるようにすることができる。
領域毎の検出サイズは、画角によっておおよそ決定される。そのため、隣り合う領域の検出サイズは、離れた領域の検出サイズに比べて、より近しい値をとることが予測される。したがって、図10(b)の範囲901のように、周囲と比べて、設定された閾値以上に値が外れているサイズを示すアイコン902があった場合、アイコン902に対応する領域では、検出サイズの更新が上手くいっていないことが視覚的にわかる。これにより、画像処理装置100は、ユーザーに対して、アイコン902に対応する検出サイズのように、更新が上手くいっていない領域の検出サイズの情報の修正を促すことができる。
<Embodiment 4>
In the present embodiment, a description will be given of a process in which the output unit 203 outputs detection size information as shown in FIG. 4 managed by the size management unit 215.
The output unit 203 outputs the detection size information by displaying it on the display unit of the image processing apparatus 100, an external display, or the like in real time or at a set timing so that the user can check it. Can do.
FIG. 10A is a diagram illustrating an example of a display result of the detection size. The output unit 203 obtains the average size of the objects to be detected corresponding to the area from the information on the detected size for each area. Then, the output unit 203 enlarges / reduces the object type icon according to the obtained average size, and displays it at the location of each region in the image. In this way, the image processing apparatus 100 displays the approximate size of the detection size of each region in association with each region, so that the user can determine the size of the object to be detected in each region. Can be visually grasped.
The detection size for each region is roughly determined by the angle of view. Therefore, it is predicted that the detection size of the adjacent region takes a closer value than the detection size of the distant region. Therefore, when there is an icon 902 indicating a size that is out of the set threshold value or more compared to the surrounding area as in the range 901 of FIG. 10B, the detected size is detected in the area corresponding to the icon 902. You can see visually that the update is not going well. As a result, the image processing apparatus 100 can prompt the user to correct information on the detection size of the area that is not well updated, such as the detection size corresponding to the icon 902.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

例えば、上述した画像処理装置100の機能構成の一部又は全てをハードウェアとして画像処理装置100に実装してもよい。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせてもよい。
For example, a part or all of the functional configuration of the image processing apparatus 100 described above may be implemented in the image processing apparatus 100 as hardware.
As mentioned above, although preferable embodiment of this invention was explained in full detail, this invention is not limited to the specific embodiment which concerns. You may combine each embodiment mentioned above arbitrarily.

100 画像処理装置
101 CPU
202 検出部
100 Image processing apparatus 101 CPU
202 detector

Claims (11)

画像に対して設定された領域から、前記領域で検出対象となるオブジェクトのサイズに係るサイズ情報に基づいて、前記オブジェクトを検出する検出手段と、
前記検出手段により検出された前記オブジェクトのサイズに基づいて、前記サイズ情報を更新する更新手段と、
を有する画像処理装置。
Detection means for detecting the object based on size information relating to the size of the object to be detected in the area from the area set for the image;
Updating means for updating the size information based on the size of the object detected by the detecting means;
An image processing apparatus.
前記検出手段は、前記画像に対して設定された複数の領域から、前記複数の領域それぞれのサイズ情報に基づいて前記オブジェクトを検出し、
前記更新手段は、前記複数の領域それぞれの領域ごとに前記サイズ情報を更新する請求項1記載の画像処理装置。
The detection means detects the object based on the size information of each of the plurality of regions from the plurality of regions set for the image,
The image processing apparatus according to claim 1, wherein the update unit updates the size information for each of the plurality of regions.
前記検出手段は、撮像手段により撮影された前記画像内の前記領域から、前記サイズ情報に基づいて、前記オブジェクトを検出する請求項1又は2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit detects the object based on the size information from the area in the image captured by the imaging unit. 前記更新手段は、前記撮像手段の画角が変更された場合、前記撮像手段の画角の変更に基づいて、前記サイズ情報を更新する請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, wherein when the angle of view of the imaging unit is changed, the update unit updates the size information based on the change of the angle of view of the imaging unit. 前記更新手段は、前記検出手段により検出された前記オブジェクトのサイズに基づいて、前記撮像手段の設定された複数の画角に対応する複数の前記サイズ情報のうち、現在の前記撮像手段の画角に対応する前記サイズ情報を更新する請求項3又は4記載の画像処理装置。   The updating unit is configured to select a current angle of view of the imaging unit among a plurality of pieces of size information corresponding to the plurality of field angles set by the imaging unit based on the size of the object detected by the detection unit. The image processing apparatus according to claim 3, wherein the size information corresponding to the number is updated. 前記領域の指定を受付ける受付手段を更に有し、
前記検出手段は、前記受付手段により指定が受付けられた領域から、前記サイズ情報に基づいて、前記オブジェクトを検出する請求項1乃至5何れか1項記載の画像処理装置。
Further comprising a receiving means for receiving the designation of the area;
The image processing apparatus according to claim 1, wherein the detection unit detects the object based on the size information from an area where the designation is received by the reception unit.
前記画像における前記オブジェクトの写り方に基づいて、前記画像に対して前記領域を設定する設定手段を更に有し、
前記検出手段は、前記設定手段により前記画像に対して設定された前記領域から、前記サイズ情報に基づいて、前記オブジェクトを検出する請求項1乃至5何れか1項記載の画像処理装置。
Further comprising setting means for setting the region for the image based on how the object appears in the image;
The image processing apparatus according to claim 1, wherein the detection unit detects the object from the area set for the image by the setting unit based on the size information.
前記サイズ情報を、前記領域と対応付けて、出力する出力手段を更に有する請求項1乃至7何れか1項記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an output unit that outputs the size information in association with the area. 前記出力手段は、複数の前記サイズ情報それぞれを、複数の前記領域それぞれと対応付けて、出力する請求項8記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the output unit outputs each of the plurality of pieces of size information in association with each of the plurality of regions. 画像処理装置が実行する情報処理方法であって、
画像に対して設定された領域から、前記領域で検出対象となるオブジェクトのサイズに係るサイズ情報に基づいて、前記オブジェクトを検出する検出ステップと、
前記検出ステップで検出された前記オブジェクトのサイズに基づいて、前記サイズ情報を更新する更新ステップと、
を含む情報処理方法。
An information processing method executed by an image processing apparatus,
A detection step of detecting the object based on the size information relating to the size of the object to be detected in the region from the region set for the image;
An update step of updating the size information based on the size of the object detected in the detection step;
An information processing method including:
コンピュータを、請求項1乃至8何れか1項記載の画像処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 8.
JP2017014208A 2017-01-30 2017-01-30 Image processing apparatus, image processing method, and program Active JP6452738B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017014208A JP6452738B2 (en) 2017-01-30 2017-01-30 Image processing apparatus, image processing method, and program
EP18153451.2A EP3355243A1 (en) 2017-01-30 2018-01-25 Information processing apparatus, information processing method, and program
US15/879,915 US11019251B2 (en) 2017-01-30 2018-01-25 Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
CN201810090248.XA CN108376243B (en) 2017-01-30 2018-01-30 Information processing apparatus, image pickup apparatus, control methods therefor, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017014208A JP6452738B2 (en) 2017-01-30 2017-01-30 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2018124629A true JP2018124629A (en) 2018-08-09
JP6452738B2 JP6452738B2 (en) 2019-01-16

Family

ID=63111433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017014208A Active JP6452738B2 (en) 2017-01-30 2017-01-30 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6452738B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021092918A (en) * 2019-12-09 2021-06-17 キヤノン株式会社 Image processing apparatus, image processing method, computer program, and storage medium
WO2021149327A1 (en) * 2020-01-22 2021-07-29 三菱電機株式会社 Object detecting device, object detecting method, and object detecting program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006025238A (en) * 2004-07-08 2006-01-26 Fuji Photo Film Co Ltd Imaging device
JP2008236276A (en) * 2007-03-20 2008-10-02 Hitachi Ltd Camera apparatus
JP2010140425A (en) * 2008-12-15 2010-06-24 Hitachi Kokusai Electric Inc Image processing system
JP2012185684A (en) * 2011-03-07 2012-09-27 Jvc Kenwood Corp Object detection device and object detection method
JP2013148989A (en) * 2012-01-18 2013-08-01 Panasonic Corp Scan window size determination device, detection frame size histogram information acquisition device, and scan window size determination method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006025238A (en) * 2004-07-08 2006-01-26 Fuji Photo Film Co Ltd Imaging device
JP2008236276A (en) * 2007-03-20 2008-10-02 Hitachi Ltd Camera apparatus
JP2010140425A (en) * 2008-12-15 2010-06-24 Hitachi Kokusai Electric Inc Image processing system
JP2012185684A (en) * 2011-03-07 2012-09-27 Jvc Kenwood Corp Object detection device and object detection method
JP2013148989A (en) * 2012-01-18 2013-08-01 Panasonic Corp Scan window size determination device, detection frame size histogram information acquisition device, and scan window size determination method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021092918A (en) * 2019-12-09 2021-06-17 キヤノン株式会社 Image processing apparatus, image processing method, computer program, and storage medium
JP7370840B2 (en) 2019-12-09 2023-10-30 キヤノン株式会社 Image processing device, image processing method, computer program and storage medium
WO2021149327A1 (en) * 2020-01-22 2021-07-29 三菱電機株式会社 Object detecting device, object detecting method, and object detecting program
JP2021117533A (en) * 2020-01-22 2021-08-10 三菱電機インフォメーションシステムズ株式会社 Object detection device, object detection method, and object detection program

Also Published As

Publication number Publication date
JP6452738B2 (en) 2019-01-16

Similar Documents

Publication Publication Date Title
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US10771761B2 (en) Information processing apparatus, information processing method and storing unit
JP5178797B2 (en) Display control apparatus and display control method
JP6624629B2 (en) Fish counting device, fish counting method, fish number prediction device, fish number prediction method, fish counting system and fish number prediction system
CN108376243B (en) Information processing apparatus, image pickup apparatus, control methods therefor, and recording medium
CN109671136B (en) Image processing apparatus and method, and non-transitory computer readable storage medium
JP6494418B2 (en) Image analysis apparatus, image analysis method, and program
JP2011060058A (en) Imaging apparatus and monitoring system
WO2019093457A1 (en) Information processing device, information processing method and program
JP2012057974A (en) Photographing object size estimation device, photographic object size estimation method and program therefor
JP6452738B2 (en) Image processing apparatus, image processing method, and program
EP3663969A1 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP2017125974A (en) Display device, display method and program
JP2019135810A (en) Image processing apparatus, image processing method, and program
JP6991045B2 (en) Image processing device, control method of image processing device
KR101982258B1 (en) Method for detecting object and object detecting apparatus
JP6325615B2 (en) Method and apparatus for setting camera focus.
JP6987532B2 (en) Information processing equipment, information processing system, information processing method and program
CN109740409A (en) Information processing unit and method, photographic device, camera arrangement and storage medium
JP2018092507A (en) Image processing apparatus, image processing method, and program
KR102107137B1 (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera
JP2017028688A (en) Image managing device, image managing method and program
JP4269781B2 (en) Optical flow detection system, detection method and detection program
JP2017073642A (en) Information processing device, information processing method, and program
US9865070B2 (en) Panoramic stitched image memory texture writing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181211

R151 Written notification of patent or utility model registration

Ref document number: 6452738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151