JP6562648B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6562648B2
JP6562648B2 JP2015028036A JP2015028036A JP6562648B2 JP 6562648 B2 JP6562648 B2 JP 6562648B2 JP 2015028036 A JP2015028036 A JP 2015028036A JP 2015028036 A JP2015028036 A JP 2015028036A JP 6562648 B2 JP6562648 B2 JP 6562648B2
Authority
JP
Japan
Prior art keywords
image
area
region
recognition
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015028036A
Other languages
Japanese (ja)
Other versions
JP2016151833A (en
Inventor
小山 徹
小山  徹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015028036A priority Critical patent/JP6562648B2/en
Publication of JP2016151833A publication Critical patent/JP2016151833A/en
Application granted granted Critical
Publication of JP6562648B2 publication Critical patent/JP6562648B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

近年、画像処理対象の映像の高解像度化が進み、映像1フレームあたりの処理量がこれに比例して増加している。よって、特にリアルタイム処理等、高速な処理が必要な場合に処理量の増加が問題となっている。これに対し、映像の各フレーム画像を領域により分割して、部分領域画像単位で複数の画像処理部に分担させて並列処理することにより処理を高速化する手法が一般的に知られている。
しかし、画像認識処理を行う際、元画像において分割境界をまたぐ対象物は分割境界で分断されてしまうため、何れの画像処理部にも対象物の領域全体を含む画像が入力されないため認識に失敗してしまう問題があった。
この問題に対し特許文献1において、部分領域画像とは別に元画像の縮小画像を生成して、これを追加の画像処理部で処理することにより、分割画像で検出できない認識対象の検出を行う技術が開示されている。
In recent years, the resolution of videos to be processed has been increased, and the processing amount per frame of video has increased in proportion to this. Therefore, an increase in processing amount is a problem particularly when high-speed processing such as real-time processing is required. On the other hand, there is generally known a method of speeding up processing by dividing each frame image of a video into regions and sharing the divided image processing units in units of partial region images to perform parallel processing.
However, when performing image recognition processing, an object that crosses the division boundary in the original image is divided at the division boundary, so that the image including the entire area of the object is not input to any image processing unit, so recognition fails. There was a problem.
In order to solve this problem, Japanese Patent Application Laid-Open No. H10-228707 detects a recognition target that cannot be detected in a divided image by generating a reduced image of the original image separately from the partial region image and processing the reduced image with an additional image processing unit. Is disclosed.

特許第5235808号公報Japanese Patent No. 5235808

しかしながら、従来技術では画像分割境界をまたぐ認識対象物については元画像の縮小画像でしか認識処理できないため、縮小前の画像を用いて画像認識処理を行う場合と比較し、認識処理の認識精度が劣化する問題があった。
そこで、本発明は、複数の画像処理部で処理するために画像を分割する場合において、当該分割境界に係る認識対象物の認識処理をより高精度に行うことが可能な画像処理方法を提供することを目的とする。
However, in the conventional technology, since the recognition target that crosses the image division boundary can be recognized only with the reduced image of the original image, the recognition accuracy of the recognition processing is higher than when the image recognition processing is performed using the image before the reduction. There was a problem of deterioration.
Therefore, the present invention provides an image processing method capable of performing recognition processing of a recognition target object related to the division boundary with higher accuracy when an image is divided for processing by a plurality of image processing units. For the purpose.

そこで、本発明の画像処理装置は、時間的に連続する入力画像の領域分割方法を切り替える切替手段と、前記切替手段により切り替えられ領域分割方法に基づき分割された複数の部分領域画像を、それぞれ対応する複数の画像認識処理手段に供給する供給手段と、を有し、前記切替手段は、第1の入力画像に対しては、第1の領域分割パターンを適用し、前記第1の入力画像の次の第2の入力画像に対しては、前記第1の領域分割パターンとは異なる第2の領域分割パターンを適用することで時間的に連続する入力画像の領域分割方法を順次切り替え、前記供給手段は、前記領域分割方法に基づき分割された複数の部分領域画像のうち少なくとも2つ以上の部分領域画像が同じ画像認識処理手段で処理される画像であるにも関わらず分断されていた場合、分断された部分領域画像を接合し1枚の画像とし、前記画像認識処理手段に供給するTherefore, the image processing apparatus of the present invention includes a switching means for switching the area dividing method of the input temporally continuous images, a plurality of divided partial region images were based on the switched that the area dividing method by the switching means, respectively anda supply means for supplying to the corresponding plurality of image recognition processing means, said switching means, for the first input image, by applying the first area division pattern, the first input for the next second input image of the image, sequential area dividing method of the first area division pattern and the input temporally continuous images by applying a different second area division pattern is switching said supply means, the cutting of despite an image at least two or more partial-area image is processed in the same image recognition processing means of the plurality of divided partial area images on the basis of the area dividing method If not, joining the divided partial area image as one image, and supplies to the image recognition processing unit.

本発明によれば、複数の画像処理部で処理するために画像を分割する場合において、当該分割境界に係る認識対象物の認識処理をより高精度に行うことができる。   According to the present invention, when an image is divided for processing by a plurality of image processing units, recognition processing of a recognition target object related to the division boundary can be performed with higher accuracy.

画像認識装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image recognition apparatus. 実施形態1の画像認識装置の情報処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of information processing of the image recognition apparatus according to the first embodiment. 領域分割パターン情報のデータフォーマットの一例を示す図である。It is a figure which shows an example of the data format of area | region division pattern information. 入力映像の異なる時刻のフレーム毎に領域分割パターンを変更する一例を示す図である。It is a figure which shows an example which changes an area | region division | segmentation pattern for every flame | frame of a different time of an input image | video. 領域分割パターンの決定法の一例を示す図である。It is a figure which shows an example of the determination method of an area | region division pattern. 領域分割された部分領域画像の画像認識処理部への供給方法の一例を示す図である。It is a figure which shows an example of the supply method to the image recognition process part of the partial area image by which area | region division | segmentation was carried out. 画像認識処理部へ供給する画像データの読み出し順序の一例を示す図である。It is a figure which shows an example of the read-out order of the image data supplied to an image recognition process part. 実施形態2の画像認識装置の情報処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of information processing of the image recognition apparatus according to the second embodiment. 認識情報のデータフォーマットの一例を示す図である。It is a figure which shows an example of the data format of recognition information. 認識情報を用いてフレーム毎に領域分割パターンを変更する処理動作の一例を示す図である。It is a figure which shows an example of the processing operation which changes an area | region division pattern for every flame | frame using recognition information.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
図1は、画像認識装置のハードウェア構成の一例を示す図である。画像認識装置は、画像処理装置の一例である。
メモリ100は、データの一時記憶に用いられる。メモリ100には、入出力インタフェース101から入力される映像データや領域分割パターン情報、第1画像認識処理部106、第2画像認識処理部107が出力する認識情報等がバスシステム103を介して入力され、保存される。
入出力インタフェース101は、全体制御部102の指示に基づき、外部から入力される映像データや、映像データの領域分割パターン情報の受け取りと画像認識結果の外部への出力を行う。映像データはフレーム毎に時間順で順次、連続して入力される。入力データはバスシステム103を介してメモリ100に送信され保存される。
全体制御部102は、各処理部の処理順序や処理内容の制御を行う。
バスシステム103は、各処理部間のデータの送受信を調停する。
領域分割制御部104は、全体制御部102の指示に基づき、メモリ100に蓄えられた領域分割パターン情報や第1画像認識処理部106、第2画像認識処理部107の出力である認識情報を、バスシステム103を介して読み出す。領域分割制御部104は、領域分割パターン情報又は認識情報に基づき入力映像フレームから取り出す2つの画像領域を決定し、画像領域情報を部分領域画像供給部105に通知する。
部分領域画像供給部105は、領域分割制御部104から通知された画像領域情報に基づき、メモリ100に蓄えられた入力映像フレームを、バスシステム103を介して読み出し、第1画像認識処理部106、第2画像認識処理部107に供給する。即ち、領域分割制御部104は、時間的に連続する入力画像(入力映像フレーム)の領域分割方法を順次切り替える。そして部分領域画像供給部105は、当該領域分割方法に従って入力画像を分割し、一方の部分領域画像を第1画像認識処理部106へ供給し、他方の分割領域画像を第2画像認識処理部107に供給する。
第1画像認識処理部106、第2画像認識処理部107は、部分領域画像供給部105より供給された映像フレーム(部分領域画像)に対して画像認識処理を行う。画像認識処理により入力フレーム内での認識対象の存在領域を示す位置情報や認識対象の識別情報がバスシステム103を介してメモリ100に送信され、保存される。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the image recognition apparatus. The image recognition device is an example of an image processing device.
The memory 100 is used for temporary storage of data. The memory 100 receives video data and area division pattern information input from the input / output interface 101, recognition information output from the first image recognition processing unit 106 and the second image recognition processing unit 107, and the like via the bus system 103. And saved.
The input / output interface 101 receives externally input video data and area division pattern information of the video data and outputs an image recognition result to the outside based on an instruction from the overall control unit 102. Video data is input sequentially and sequentially in time order for each frame. Input data is transmitted and stored in the memory 100 via the bus system 103.
The overall control unit 102 controls the processing order and processing contents of each processing unit.
The bus system 103 mediates transmission / reception of data between the processing units.
Based on an instruction from the overall control unit 102, the region division control unit 104 receives the region division pattern information stored in the memory 100 and the recognition information output from the first image recognition processing unit 106 and the second image recognition processing unit 107. Read out via the bus system 103. The area division control unit 104 determines two image areas to be extracted from the input video frame based on the area division pattern information or the recognition information, and notifies the partial area image supply unit 105 of the image area information.
The partial region image supply unit 105 reads out the input video frames stored in the memory 100 based on the image region information notified from the region division control unit 104 via the bus system 103, and performs the first image recognition processing unit 106, The image is supplied to the second image recognition processing unit 107. That is, the region division control unit 104 sequentially switches the region division method for temporally continuous input images (input video frames). Then, the partial region image supply unit 105 divides the input image according to the region division method, supplies one partial region image to the first image recognition processing unit 106, and supplies the other divided region image to the second image recognition processing unit 107. To supply.
The first image recognition processing unit 106 and the second image recognition processing unit 107 perform image recognition processing on the video frame (partial region image) supplied from the partial region image supply unit 105. Through the image recognition process, position information indicating the existence area of the recognition target in the input frame and identification information of the recognition target are transmitted to the memory 100 via the bus system 103 and stored.

本構成において画像認識処理部は2つであるが、3つ以上の画像認識処理部を持つ構成であっても良い。その場合、領域分割制御部104は、画像認識処理部の個数に応じて各画像認識処理部に供給する画像の部分領域決定を行い、部分領域画像供給部に通知する。部分領域画像供給部105は、領域分割制御部104より通知された領域の画像をメモリ100より読み出し、対応する画像認識処理部に供給する。
図1では、例えば、領域分割制御部104や部分領域画像供給部105をハードウェア構成として説明を行ったが、これをソフトウェア構成として画像認識装置に実装するようにしても良い。即ち、全体制御部102がメモリ100に記憶されたプログラムに基づき処理を実行することにより、領域分割制御部104や部分領域画像供給部105の機能を実現するようにしても良い。同様に、全体制御部102がメモリ100に記憶されたプログラムに基づき処理を実行することにより、後述するフローチャートの各処理を実現するようにしても良い。
In this configuration, there are two image recognition processing units, but a configuration having three or more image recognition processing units may be used. In that case, the region division control unit 104 determines a partial region of an image to be supplied to each image recognition processing unit according to the number of image recognition processing units, and notifies the partial region image supply unit. The partial area image supply unit 105 reads the image of the area notified from the area division control unit 104 from the memory 100 and supplies the image to the corresponding image recognition processing unit.
In FIG. 1, for example, the area division control unit 104 and the partial area image supply unit 105 have been described as hardware configurations. However, these may be implemented in the image recognition apparatus as a software configuration. That is, the functions of the region division control unit 104 and the partial region image supply unit 105 may be realized by the overall control unit 102 executing processing based on a program stored in the memory 100. Similarly, the overall control unit 102 may execute processes based on a program stored in the memory 100 to realize each process in the flowchart described below.

図2は実施形態1の画像認識装置の情報処理の一例を示すフローチャートである。ステップS200において、全体制御部102は、入出力インタフェース101を介して入力された領域分割パターン情報を、バスシステム103を経由し、メモリ100に記憶する。領域分割パターン情報のデータフォーマットの例を図3に示す。領域分割パターン情報は図3に示す第1領域分割パターン300と第2領域分割パターン301とから構成される。更に領域分割パターン300、301は矩形領域の左上端座標を示す始点x座標302、始点y座標303と矩形領域の右下端を示す終点x座標304、終点y座標305とから構成される。本実施形態では1つの領域分割パターンと始点x座標302、始点y座標303、終点x座標304、終点y座標305を一組とする矩形領域情報とが対応するが、1つの領域分割パターンと複数の矩形領域情報とが対応しても良い。また、領域分割パターンは本実施形態では2つであるが3つ以上持つこともできる。   FIG. 2 is a flowchart illustrating an example of information processing of the image recognition apparatus according to the first embodiment. In step S <b> 200, the overall control unit 102 stores the area division pattern information input via the input / output interface 101 in the memory 100 via the bus system 103. An example of the data format of the area division pattern information is shown in FIG. The area division pattern information includes a first area division pattern 300 and a second area division pattern 301 shown in FIG. Further, the area division patterns 300 and 301 are composed of a start point x coordinate 302 indicating the upper left corner coordinates of the rectangular area, a start point y coordinate 303, an end point x coordinate 304 indicating the lower right end of the rectangular area, and an end point y coordinate 305. In the present embodiment, one area division pattern corresponds to rectangular area information including a start point x coordinate 302, a start point y coordinate 303, an end point x coordinate 304, and an end point y coordinate 305. May correspond to the rectangular area information. Further, although there are two area division patterns in the present embodiment, they may have three or more.

図4(a)は第1領域分割パターン300に基づき領域分割を行った場合の分割状態の一例を示す図である。図4(a)中の第1入力画像400はフレーム全体である。第1領域分割パターン第1画像認識処理領域402は第1画像認識処理部106が処理を行う画像領域であり、第1領域分割パターン301の座標情報302〜305が示す矩形領域内である。第1領域分割パターン第2画像認識処理領域403は第2画像認識処理部107が処理を行う画像領域であり、第1領域分割パターン301の座標情報302〜305が示す矩形領域を除く外側の矩形領域である。
一方、図4(b)は第2領域分割パターン301に基づき領域分割を行った場合の分割状態の一例を示す図である。この例では第2領域分割パターン第1画像認識処理領域404が第2領域分割パターン301の座標情報が示す矩形領域内である。第2領域分割パターン第1画像認識処理領域404の外側にあたる左側の矩形領域と右側の矩形領域とが第2領域分割パターン第2画像認識処理領域405である。この例のように、領域分割パターンによっては、第2画像認識処理領域は空間的に分断された2つの画像領域となる。本実施形態における構成においては、一つの矩形領域を示す座標データにより前記矩形領域とその範囲外の矩形領域という形式で2つの画像認識処理部の入力に与える画像領域が定まる。但し、この部分領域決定方法は一例であり、他の方法を取っても良い。
FIG. 4A is a diagram illustrating an example of a division state when region division is performed based on the first region division pattern 300. The first input image 400 in FIG. 4A is the entire frame. The first area division pattern first image recognition processing area 402 is an image area that is processed by the first image recognition processing unit 106, and is within a rectangular area indicated by the coordinate information 302 to 305 of the first area division pattern 301. The first area division pattern second image recognition processing area 403 is an image area processed by the second image recognition processing unit 107, and is an outer rectangle excluding the rectangular areas indicated by the coordinate information 302 to 305 of the first area division pattern 301. It is an area.
On the other hand, FIG. 4B is a diagram showing an example of a division state when the area division is performed based on the second area division pattern 301. In this example, the second area division pattern first image recognition processing area 404 is within the rectangular area indicated by the coordinate information of the second area division pattern 301. The left-side rectangular area and the right-side rectangular area outside the second area division pattern first image recognition processing area 404 are the second area division pattern second image recognition processing area 405. As in this example, depending on the region division pattern, the second image recognition processing region is two image regions that are spatially divided. In the configuration according to the present embodiment, the image areas to be given to the inputs of the two image recognition processing units are determined in the form of the rectangular area and the rectangular area outside the range by the coordinate data indicating one rectangular area. However, this partial area determination method is an example, and another method may be used.

領域分割パターンの決定法の一例を図5に示す。図5のように基準領域分割パターン500は入力画像を幅wで左右方向に2つに等分する。部分領域画像供給部105は、分割により得られた基準領域分割パターン第1画像認識処理領域50を第1画像認識処理部106、基準領域分割パターン第2画像認識処理領域502を第2画像認識処理部107に供給する。これに対して第2領域分割パターン50においては分割境界が基準領域分割パターン500に対してw/2、つまり半分の幅だけ、シフトさせられている。これによって、基準領域分割パターン500において分割境界があった位置が、第2領域分割パターン50における第2領域分割パターン第1画像認識処理領域50においては中央の位置となる。よって基準領域分割パターン500において分割境界に位置していた対象物を第2領域分割パターン50では認識処理用画像の中央位置に捉えることができる。第2領域分割パターン50においては分割後の3つの画像領域について中央の画像領域を第2領域分割パターン第1画像認識処理領域50として、第1画像認識処理部106が処理を行う。また、左端、右端の領域を第2領域分割パターン第2画像認識処理用域50として第2画像認識処理部107が処理を行う。本方法の分割パターンは左右方向でなく上下方向に画像を分割する場合、また、左右方向と上下方向と両方に画像を分割する場合にも同様に適用できる。また、幅方向、又は高さ方向の分割数は2より大きな値であっても良い。
本実施形態においては領域分割パターンの変更時に第1画像認識処理部106、第2画像認識処理部107がそれぞれ等しい解像度の部分領域画像を処理するように領域分割パターンを決定することを想定している。しかし、片方の画像認識処理部の処理する部分領域画像の解像度がもう片方の画像認識処理部の処理する部分領域画像の解像度より大きくなるような領域分割パターンであっても良い。
An example of the method for determining the region division pattern is shown in FIG. As shown in FIG. 5, the reference area division pattern 500 equally divides the input image into two in the left-right direction with the width w. Partial-area image supply unit 105, a reference area division pattern first image recognition processing region 50 3 the first image recognition processing unit 106, a reference area division pattern the second image recognition processing region 502 second image recognition obtained by dividing This is supplied to the processing unit 107. W / 2 division boundary with respect to the reference area dividing pattern 500 in the second region division pattern 50 4 contrary, that only half of the width, are shifted. Thus, the position where there is division boundary in the reference area dividing pattern 500, in the second area division pattern first image recognition processing area 50 5 of the second region division pattern 50 4 becomes the center position. Thus, it is possible to capture the target object located in the division boundary in the reference area division pattern 500 to the center position of the second region division pattern 50 4 In recognition processing image. The center of the image area for the three image areas after division as the second area division pattern first image recognition processing area 50 5 in the second region division pattern 50 4, first image recognition processing unit 106 performs processing. Further, the left end, the second image recognition processing unit 107 performs processing the right edge of the area as the second area division pattern the second image recognition processing zone 50 6. The division pattern of this method can be similarly applied to the case of dividing an image in the vertical direction instead of the horizontal direction, and also in the case of dividing the image in both the horizontal direction and the vertical direction. Further, the number of divisions in the width direction or the height direction may be a value larger than two.
In the present embodiment, it is assumed that when the region division pattern is changed, the first image recognition processing unit 106 and the second image recognition processing unit 107 determine the region division pattern so as to process partial region images having the same resolution. Yes. However, it may be a region division pattern in which the resolution of the partial region image processed by one image recognition processing unit is larger than the resolution of the partial region image processed by the other image recognition processing unit.

図2の説明に戻る。
ステップS201において、全体制御部102は、入出力インタフェース101を介して入力された1フレーム分のフレームデータを、バスシステム103を経由し、メモリ100に記憶する。
ステップS202において、領域分割制御部104は、領域分割パターンの切り替えを行う。領域分割制御部104は、ステップS200でメモリ100に記憶された領域分割パターン情報の1つを選択し、読み出して部分領域画像供給部105に送信する。領域分割制御部104は、1フレーム処理毎に第1領域分割パターン300と第2領域分割パターン301とが交互に切り替わるように領域分割パターン情報を決定し、選択する。即ち、領域分割制御部104は、時間的に連続する入力画像の分割領域方法を切り替える。なお、本実施形態においては左右方向に領域を分割しているが、上下方向に分割する等他の分割パターンを取っても良い。また、領域分割パターン数が3以上の場合はそれらのパターンが巡回的に順次切替わっていくように選択すれば良い。但し、領域分割パターンの選択順序は他のいかなる方法を用いても良い。
ステップS203において、部分領域画像供給部105は、領域分割制御部104から受けた領域分割パターンの通知に基づき、メモリ100への読み出しアドレスを生成し、発行する。図4(a)に示す例においては、部分領域画像供給部105は、第1領域分割パターン第1画像認識処理領域402の読み出しアドレスと第1領域分割パターン第2画像認識処理領域403の読み出しアドレスとを並列に発行する。そして、部分領域画像供給部105は、メモリ100から並列に読み出しを行っていく。画像データの読み出し順はラスター順で良いが、他の方法であっても良い。部分領域画像供給部105は、読み出した画像データをそれぞれ、第1画像認識処理部106、第2画像認識処理部107に順次供給する。即ち、部分領域画像供給部105は、領域分割制御部104により切り替えられた領域分割方法に基づき分割された複数の部分領域画像を、それぞれ対応する複数の画像処理部に供給する。
Returning to the description of FIG.
In step S <b> 201, the overall control unit 102 stores the frame data for one frame input via the input / output interface 101 in the memory 100 via the bus system 103.
In step S202, the area division control unit 104 switches area division patterns. The area division control unit 104 selects one of the area division pattern information stored in the memory 100 in step S200, reads it, and transmits it to the partial area image supply unit 105. The area division control unit 104 determines and selects area division pattern information so that the first area division pattern 300 and the second area division pattern 301 are alternately switched for each frame process. That is, the region division control unit 104 switches the divided region method of the input image that is temporally continuous. In the present embodiment, the region is divided in the left-right direction, but other division patterns such as division in the up-down direction may be taken. Further, when the number of area division patterns is 3 or more, selection may be made so that these patterns are cyclically switched sequentially. However, any other method may be used for selecting the area division pattern.
In step S <b> 203, the partial area image supply unit 105 generates and issues a read address to the memory 100 based on the notification of the area division pattern received from the area division control unit 104. In the example shown in FIG. 4A, the partial area image supply unit 105 reads the read address of the first area division pattern first image recognition processing area 402 and the read address of the first area division pattern second image recognition processing area 403. Are issued in parallel. Then, the partial area image supply unit 105 reads out from the memory 100 in parallel. The reading order of the image data may be the raster order, but other methods may be used. The partial area image supply unit 105 sequentially supplies the read image data to the first image recognition processing unit 106 and the second image recognition processing unit 107, respectively. That is, the partial region image supply unit 105 supplies a plurality of partial region images divided based on the region division method switched by the region division control unit 104 to a plurality of corresponding image processing units.

図4(b)の分割パターンの例においては、部分領域画像供給部105は、図6に示すように3つの画像領域に対してメモリ100からの読み出し順を制御して、2枚の画像として第1画像認識処理部106、第2画像認識処理部107に1枚ずつ供給する。3つの領域を2つに集約する方法を、図6を用いて説明する。図6においては第2領域分割パターン301の座標情報302〜305が示す矩形領域内を領域B601、この矩形領域外の左側の矩形領域を領域A600、右側の矩形領域を領域C602とする。部分領域画像供給部105は、領域B601の画像はこのまま第1画像認識処理部供給画像603として第1画像認識処理部106に供給する。部分領域画像供給部105は、領域A600と領域C602とに関してはメモリからの読み出し順序の制御により、2枚の画像を接合した第2画像認識処理部供給画像604に示す形式の1枚の画像としてラスター順に第2画像認識処理部107に供給する。
図7における画像読み出し順序指示線700〜705は画像データの読み出し順序を示している。部分領域画像供給部105は、図7に示すように1番目に領域A600の1ライン目の読み出し、2番目に領域C602の1ライン目の読み出し、2番目に領域A600の2ライン目の読み出し、3番目に領域C602の2ライン目の読み出し、と画素値を読み出す。つまり、部分領域画像供給部105は、画素値を1ライン目から順に領域A600、領域C602を交互に読み出していく。順序指示線704、順序指示線705はそれぞれ領域A600、領域C602の読み出し画素最終ラインである。
このように制御することで、第2画像認識処理部107は領域分割パターンによって領域A600と領域C602とのように空間的に離れた2つの領域を処理する場合も、領域B601のみを処理する場合と同じように1枚の画像として扱える。そのため、画像認識処理部の制御が容易になる。
In the example of the division pattern of FIG. 4B, the partial area image supply unit 105 controls the reading order from the memory 100 for the three image areas as shown in FIG. The images are supplied to the first image recognition processing unit 106 and the second image recognition processing unit 107 one by one. A method of consolidating three regions into two will be described with reference to FIG. In FIG. 6, the rectangular area indicated by the coordinate information 302 to 305 of the second area division pattern 301 is defined as area B601, the left rectangular area outside this rectangular area is defined as area A600, and the right rectangular area is defined as area C602. The partial region image supply unit 105 supplies the image of the region B601 as it is to the first image recognition processing unit 106 as the first image recognition processing unit supply image 603. The partial area image supply unit 105 controls the reading order from the memory for the area A600 and the area C602 as one image of the format shown in the second image recognition processing unit supply image 604 obtained by joining the two images. The images are supplied to the second image recognition processing unit 107 in raster order.
Image reading order instruction lines 700 to 705 in FIG. 7 indicate the reading order of the image data. As shown in FIG. 7, the partial area image supply unit 105 reads first the first line of the area A600, second reads the first line of the area C602, secondly reads the second line of the area A600, Third, readout of the second line in the region C602 and pixel values are read out. That is, the partial area image supply unit 105 alternately reads out the area A600 and the area C602 in order from the first line. The order instruction line 704 and the order instruction line 705 are read pixel final lines of the area A600 and the area C602, respectively.
By controlling in this way, the second image recognition processing unit 107 processes only two areas B601, such as an area A600 and an area C602, or only an area B601, according to an area division pattern. Can be treated as a single image. This facilitates control of the image recognition processing unit.

但し第2画像認識処理部供給画像604の領域Aと領域Cとの接合境界は本来空間的に隣接している領域ではない。したがって、部分領域画像供給部105は、接合位置情報を第2画像認識処理部供給画像604の供給と共に第2画像認識処理部107に通知する。そして、第2画像認識処理部107は、前記通知された接合境界をまたぐ領域を認識対象として検出した場合、誤検知とみなしてメモリ100へ送信しない、つまり、処理結果を破棄するように制御する。
ステップS204において、第1画像認識処理部106、第2画像認識処理部107は、それぞれ入力された部分領域画像に対して画像認識処理を行い、検出領域毎に認識情報を生成する。第1画像認識処理部106、第2画像認識処理部107は、処理結果を、バスシステム103を介してメモリ100に書き出す。ステップS204の処理は、処理結果記憶の処理の一例である。
全体制御部102は、ステップS204の処理完了後、ステップS201へ処理を戻し、次フレームのフレームデータを受け付ける。以降、画像認識装置は、ステップS201からステップS204までの処理を繰り返す。
However, the junction boundary between the area A and the area C in the second image recognition processing unit supply image 604 is not an area that is originally spatially adjacent. Therefore, the partial region image supply unit 105 notifies the second image recognition processing unit 107 of the joint position information together with the supply of the second image recognition processing unit supply image 604. Then, when the second image recognition processing unit 107 detects a region that crosses the notified joint boundary as a recognition target, the second image recognition processing unit 107 performs control so that it is regarded as a false detection and is not transmitted to the memory 100, that is, the processing result is discarded. .
In step S204, the first image recognition processing unit 106 and the second image recognition processing unit 107 perform image recognition processing on the input partial region images, and generate recognition information for each detection region. The first image recognition processing unit 106 and the second image recognition processing unit 107 write the processing result to the memory 100 via the bus system 103. The process of step S204 is an example of a process result storage process.
After completing the process in step S204, the overall control unit 102 returns the process to step S201 and accepts the frame data of the next frame. Thereafter, the image recognition apparatus repeats the processing from step S201 to step S204.

図4(a)、図4(b)は異なる時刻のフレームで異なる領域分割方法を適用している様子の一例を示す図である。図4(a)の第1入力画像400はある時刻tのフレームの全体画像である。第2入力画像406中において認識対象401は第1領域分割パターン第1画像認識処理領域402と第1領域分割パターン第2画像認識処理領域403との境界をまたいで存在する。そのため、第1画像認識処理部106、第2画像認識処理部107の入力画像は何れも認識対象401の一部しか含まないため、画像認識処理が困難である。
図4(b)は図4(a)の直後の時刻t+Δtのフレームに対して図4(a)と異なる領域分割パターンを適用した状態の一例を示している。第2入力画像406は時刻t+Δtのフレームの全体画像である。図4(b)においては認識対象401が第2領域分割パターン第1画像認識処理領域404内に納まっているためこの画像を入力とする第1画像認識処理部106は、認識対象401の画像認識処理が容易である。
十分短い時間間隔のフレーム毎に領域分割方法を切り替えることで、あるフレームでは認識に失敗する認識対象も時間的に近接した異なるフレームでは認識可能となるため、特定位置の認識対象物の認識に失敗する問題を回避できる。また、特許文献1記載の方法のように画像の縮小を行わないため、元の解像度の画像を用いて画像認識処理が可能であるため、より高い画像認識精度が得られる。
FIG. 4A and FIG. 4B are diagrams illustrating an example of a state in which different region dividing methods are applied to frames at different times. A first input image 400 in FIG. 4A is an entire image of a frame at a certain time t. In the second input image 406, the recognition target 401 exists across the boundary between the first region division pattern first image recognition processing region 402 and the first region division pattern second image recognition processing region 403. Therefore, since the input images of the first image recognition processing unit 106 and the second image recognition processing unit 107 include only a part of the recognition target 401, the image recognition process is difficult.
FIG. 4B shows an example of a state in which a region division pattern different from that in FIG. 4A is applied to the frame at time t + Δt immediately after FIG. The second input image 406 is an entire image of the frame at time t + Δt. In FIG. 4B, since the recognition target 401 is within the second region division pattern first image recognition processing region 404, the first image recognition processing unit 106 that receives this image receives the image recognition of the recognition target 401. Easy to process.
By switching the region division method for each frame with a sufficiently short time interval, recognition targets that fail to be recognized in a certain frame can be recognized in different frames that are close in time. To avoid problems. In addition, since the image is not reduced as in the method described in Patent Document 1, image recognition processing can be performed using an image with the original resolution, and thus higher image recognition accuracy can be obtained.

<実施形態2>
実施形態2の画像認識装置のハードウェア構成は図1に示すように実施形態1と同様である。但し、実施形態2では、領域分割制御部104の持つ機能が異なる。その内容については以降で説明を行う。
図8は実施形態2の画像認識装置の情報処理の一例を示すフローチャートである。図8において、ステップS200、S201、S202、S203、S204は実施形態1の図2のフローチャートの同一符号の処理と同じであるため説明を省略する。ステップS800において、領域分割制御部104は、メモリ100に保存されている第1画像認識処理部106、第2画像認識処理部107の出力した結果である認識情報を読み出す。
第1画像認識処理部106、第2画像認識処理部107が出力する認識情報のデータフォーマットの例を図9に示す。図9において認識対象領域900は画像認識処理によって検出した対象の存在する矩形領域を示し、これは更に矩形の左上端の座標を示す始点x座標902、始点y座標903と右下端の座標を示す終点x座標904、終点y座標905とから構成される。認識対象属性901は認識対象の特徴を示す情報である。本実施形態では認識対象は人物とし、認識対象属性901は性別906、年齢907、着衣908の情報から構成される。認識対象は人物以外であっても良く、本実施の形態を制限するものではない。着衣908については、メガネをしているか否かを示す1ビットの情報、マスクをしているか否かを示す1ビットの情報等、複数の情報の集合であって良い。また、認識情報のデータは図9のフォーマットを1組として、検出された認識対象の数に応じて複数がメモリ100に保存されていても良い。
<Embodiment 2>
The hardware configuration of the image recognition apparatus of the second embodiment is the same as that of the first embodiment as shown in FIG. However, in the second embodiment, the functions of the area division control unit 104 are different. The contents will be described later.
FIG. 8 is a flowchart illustrating an example of information processing of the image recognition apparatus according to the second embodiment. In FIG. 8, steps S200, S201, S202, S203, and S204 are the same as those in the flowchart of FIG. In step S <b> 800, the region division control unit 104 reads the recognition information that is the result output from the first image recognition processing unit 106 and the second image recognition processing unit 107 stored in the memory 100.
An example of the data format of the recognition information output from the first image recognition processing unit 106 and the second image recognition processing unit 107 is shown in FIG. In FIG. 9, a recognition target area 900 indicates a rectangular area where an object detected by image recognition processing exists, and further indicates a start point x coordinate 902, a start point y coordinate 903, and a lower right end coordinate indicating the coordinates of the upper left end of the rectangle. It consists of an end point x coordinate 904 and an end point y coordinate 905. The recognition target attribute 901 is information indicating the characteristics of the recognition target. In this embodiment, the recognition target is a person, and the recognition target attribute 901 includes information on gender 906, age 907, and clothing 908. The recognition target may be other than a person, and does not limit the present embodiment. The clothes 908 may be a set of a plurality of information such as 1-bit information indicating whether or not glasses are worn and 1-bit information indicating whether or not masks are being worn. Further, a plurality of pieces of recognition information data may be stored in the memory 100 according to the number of recognition targets detected with the format of FIG. 9 as one set.

領域分割制御部104は、メモリ100から読み出した認識情報を参照し、追尾すべき認識対象が存在するか否かを判断する。領域分割制御部104は、予め追尾対象として設定された認識対象属性情報とメモリ100から読み出した認識対象物の認識情報とを比較し、属性情報の差分が一定以内であるか否かを調べることによって、ある認識対象が追尾認識対象であるか否かを判断する。領域分割制御部104は、追尾認識対象が保存している認識情報の中に存在する場合、ステップS801へ、存在しない場合、ステップS202へ処理が進む。
ステップS801において、領域分割制御部104は、追尾認識対象の次フレームにおける存在領域の推定を行う。領域分割制御部104は、過去数フレーム分の認識情報を用いて前記推定を行う。まず領域分割制御部104は、追尾認識対象の認識情報を抽出し、各フレームの認識情報間で属性情報の比較を行う。領域分割制御部104は、その差分が一定以内の認識対象を同一の認識対象であるとみなす。領域分割制御部104は、同一とみなした各フレーム中の認識対象の認識対象領域900各々の座標データ902〜905をそれぞれ時間方向で線形近似し、各近似直線の次フレーム時刻の値を次フレーム時刻の座標データ902〜905の推定値とする。領域分割制御部104は、これらが示す矩形領域を認識対象の推定領域とする。この認識対象領域の次フレームにおける領域の推定方法は一例であり、他の方法を用いても良い。
The area division control unit 104 refers to the recognition information read from the memory 100 and determines whether there is a recognition target to be tracked. The area division control unit 104 compares the recognition target attribute information set as a tracking target in advance with the recognition information of the recognition target read from the memory 100, and checks whether the difference of the attribute information is within a certain range. Thus, it is determined whether a certain recognition target is a tracking recognition target. If the tracking recognition target exists in the stored recognition information, the region division control unit 104 proceeds to step S801. If not, the region division control unit 104 proceeds to step S202.
In step S801, the region division control unit 104 estimates an existing region in the next frame to be tracked. The area division control unit 104 performs the estimation using recognition information for several past frames. First, the area division control unit 104 extracts recognition information to be tracked and compares attribute information between the recognition information of each frame. The area division control unit 104 regards recognition targets whose differences are within a certain range as the same recognition target. The area division control unit 104 linearly approximates the coordinate data 902 to 905 of each recognition target area 900 in each frame regarded as the same in the time direction, and sets the value of the next frame time of each approximate line to the next frame. Assume that the time coordinate data 902 to 905 are estimated values. The area division control unit 104 sets the rectangular area indicated by these as the recognition target estimation area. The method for estimating the region in the next frame of the recognition target region is an example, and other methods may be used.

次にステップS802において、領域分割制御部104は、S801で求めた追尾認識対象の領域情報を用いて次フレームの領域分割方法を決定する。その決定方法を、図10を用いて説明を行う。図10(a)は時刻t入力フレーム1000が第1画像認識処理部処理領域1001と第2画像認識処理部処理領域1002とに分割されている状態を示している。ここで、時刻t認識対象領域1003は認識対象1005の人物を第1画像認識処理部106が第1画像認識処理部処理領域1001で検出した領域である。第1画像認識処理部106は、時刻t入力フレーム1000を含む過去複数フレーム分について認識対象領域を検出し、認識情報をメモリ100に保存している。領域分割制御部104は、この時刻t認識対象領域1003と時刻t以前のフレームの認識情報の認識対象領域とから推定した時刻t+Δtフレームの認識対象領域が時刻t推定認識対象領域1004である。図10(a)に示すように時刻t推定認識対象領域1004が第1画像認識処理部処理領域1001と第2画像認識処理部処理領域1002とにまたがる場合、領域分割制御部104は、時刻t+Δt入力フレーム1010において時刻t推定認識対象領域1004の領域内に領域分割境界が位置しないように領域分割パターンを決定する。
図10(b)は上記の方法によって領域分割パターンが変更された状態を示す図である。時刻t+Δt入力フレーム1010が第1画像認識処理部処理領域1011と第2画像認識処理部処理領域1012とに分割されて処理されている。認識対象1005の位置は時刻t入力フレーム1000の領域分割方法のままでは時刻t+Δt入力フレーム1010において、領域分割境界をまたいでしまう。しかし、ステップS801で時刻t推定認識対象領域1004内に領域分割境界が位置しないように領域分割方法の変更が行われたことにより、第1画像認識処理部処理領域1011内に認識対象1005全体が含まれている。よって、第1画像認識処理部106は、認識対象1005を検出することができる。このように、追尾対象の認識領域の移動予測に基づき領域分割パターンを変更することで追尾対象が領域分割境界をまたがないように制御することができる。
In step S802, the region division control unit 104 determines a region division method for the next frame using the tracking recognition target region information obtained in step S801. The determination method will be described with reference to FIG. FIG. 10A shows a state where the time t input frame 1000 is divided into a first image recognition processing unit processing region 1001 and a second image recognition processing unit processing region 1002. Here, the time t recognition target area 1003 is an area where the first image recognition processing unit 106 detects the person of the recognition target 1005 in the first image recognition processing unit processing area 1001. The first image recognition processing unit 106 detects recognition target areas for a plurality of past frames including the time t input frame 1000 and stores the recognition information in the memory 100. The area division control unit 104 recognizes the time t + Δt frame recognition target area estimated from the time t recognition target area 1003 and the recognition target area of the recognition information of the frame before time t as the time t estimated recognition target area 1004. As shown in FIG. 10A, when the time t estimation recognition target area 1004 extends over the first image recognition processing section processing area 1001 and the second image recognition processing section processing area 1002, the area division control section 104 determines that the time t + Δt The region division pattern is determined so that the region division boundary is not located within the region of the time t estimation recognition target region 1004 in the input frame 1010.
FIG. 10B is a diagram showing a state where the area division pattern is changed by the above method. The time t + Δt input frame 1010 is divided into a first image recognition processing unit processing area 1011 and a second image recognition processing unit processing area 1012 for processing. If the position of the recognition target 1005 is the region division method of the time t input frame 1000, the region division boundary is crossed in the time t + Δt input frame 1010. However, since the region division method is changed so that the region division boundary is not located in the time t estimation recognition target region 1004 in step S801, the entire recognition target 1005 is included in the first image recognition processing unit processing region 1011. include. Therefore, the first image recognition processing unit 106 can detect the recognition target 1005. Thus, it is possible to control the tracking target so as not to cross the region division boundary by changing the region division pattern based on the movement prediction of the recognition region of the tracking target.

領域分割制御部104は、時刻t+Δt入力フレーム1010に対しては第1画像認識処理部106が処理して認識対象1005を検出した際の検出領域である時刻t+Δt認識領域1013の情報と時刻t+Δt以前のフレームの認識情報とから更に次の時刻のフレームにおける時刻t+Δt推定認識対象領域1014を求める。そして、以上の処理を繰り返すことにより、予め設定された認識対象属性情報の特徴に近い認識対象を各フレームにおいて確実に認識できるようになる。
ここでステップS800において、領域分割制御部104は、認識対象属性901が予め設定した認識対象属性との差分が一定以下の認識対象が複数存在する場合、差分値がより小さい方の認識対象領域を優先して領域分割境界上に配置しないように領域分割パターンを制御すれば良い。このようにすることで、より所望の属性に近い対象物を優先して、領域分割境界上に位置することを避けるようにすることができる。
本実施形態における処理ではステップS800において追尾認識対象が存在しない場合はステップS202へ進みメモリ100に予め保存している領域分割パターンを適用する。よって、追尾認識対象が存在しない場合、実施形態1と同じ動作をして設定された領域分割パターンを切り替えながら第1画像認識処理部106、第2画像認識処理部107に部分領域画像供給部105が部分領域画像を供給していく。そして、追尾認識対象が現れた場合、ステップS800〜S802が実行され、追尾認識対象領域が常に領域分割境界上に位置しないように分割パターンが制御される。
以上のように制御することで重点的に認識したい対象が存在しない場合は入力映像の全領域を満遍なく画像認識できるように動作させ、重点的に認識したい対象が入力映像中に現れた場合にその対象の認識対象の認識精度をより高めるように動作させることができる。
The area division control unit 104 processes information about the time t + Δt recognition area 1013, which is a detection area when the first image recognition processing unit 106 processes the time t + Δt input frame 1010 and detects the recognition target 1005, and before the time t + Δt. The time t + Δt estimation recognition target area 1014 in the next time frame is obtained from the recognition information of the current frame. Then, by repeating the above processing, a recognition target close to the feature of the recognition target attribute information set in advance can be reliably recognized in each frame.
Here, in step S800, when there are a plurality of recognition targets whose difference from the recognition target attribute set in advance in the recognition target attribute 901 is a predetermined value or less, the region division control unit 104 selects a recognition target region having a smaller difference value. The region division pattern may be controlled so that it is not preferentially arranged on the region division boundary. By doing in this way, it is possible to give priority to an object closer to a desired attribute and avoid being located on the region division boundary.
In the process according to the present embodiment, if there is no tracking recognition target in step S800, the process proceeds to step S202, and the area division pattern stored in advance in the memory 100 is applied. Therefore, when there is no tracking recognition target, the partial region image supply unit 105 is switched to the first image recognition processing unit 106 and the second image recognition processing unit 107 while switching the region division pattern set by performing the same operation as in the first embodiment. Will supply partial area images. When the tracking recognition target appears, steps S800 to S802 are executed, and the division pattern is controlled so that the tracking recognition target region is not always located on the region division boundary.
By controlling as described above, if there is no target to be focused on, operate so that the entire area of the input video can be recognized evenly, and if the target to be focused on appears in the input video The operation can be performed so as to further increase the recognition accuracy of the target recognition target.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、上述した各実施形態の処理によれば、画像認識の認識精度を劣化させることなく画像内の全領域の対象物の画像認識処理を行うことができる。   As described above, according to the processing of each embodiment described above, it is possible to perform image recognition processing of objects in all regions in an image without degrading the recognition accuracy of image recognition.

100 メモリ
101 入出力インタフェース
102 全体制御部
103 バスシステム
104 領域分割制御部
105 部分領域画像供給部
106 第1画像認識処理部
107 第2画像認識処理部
100 Memory 101 Input / Output Interface 102 Overall Control Unit 103 Bus System 104 Region Division Control Unit 105 Partial Area Image Supply Unit 106 First Image Recognition Processing Unit 107 Second Image Recognition Processing Unit

Claims (10)

時間的に連続する入力画像の領域分割方法を切り替える切替手段と、
前記切替手段により切り替えられ領域分割方法に基づき分割された複数の部分領域画像を、それぞれ対応する複数の画像認識処理手段に供給する供給手段と、
を有し、
前記切替手段は、第1の入力画像に対しては、第1の領域分割パターンを適用し、前記第1の入力画像の次の第2の入力画像に対しては、前記第1の領域分割パターンとは異なる第2の領域分割パターンを適用することで時間的に連続する入力画像の領域分割方法を順次切り替え
前記供給手段は、前記領域分割方法に基づき分割された複数の部分領域画像のうち少なくとも2つ以上の部分領域画像が同じ画像認識処理手段で処理される画像であるにも関わらず分断されていた場合、分断された部分領域画像を接合し1枚の画像とし、前記画像認識処理手段に供給する画像処理装置。
A switching means for switching a region dividing method of temporally continuous input images;
A supply means for supplying a plurality of image recognition processing means for a plurality of partial region images, corresponding respectively divided based on switched that the area dividing method by the switching means,
Have
It said switching means, for the first input image, by applying the first area division pattern, for the next second input image of the first input image, the first region divided sequentially switching the area dividing method of the input temporally continuous images by applying a different second area division pattern is a pattern,
The supply means is divided even though at least two of the partial area images divided based on the area dividing method are images processed by the same image recognition processing means. In this case, an image processing apparatus that joins the divided partial area images into one image and supplies the image to the image recognition processing means .
時間的に連続する入力画像の領域分割方法を切り替える切替手段と、
前記切替手段により切り替えられ領域分割方法に基づき分割された複数の部分領域画像を、それぞれ対応する複数の画像認識処理手段に供給する供給手段と、
を有し、
前記切替手段は、第1の入力画像に対しては、第1の領域分割パターンを適用し、前記第1の入力画像の次の第2の入力画像に対しては、前記第1の領域分割パターンとは異なる第2の領域分割パターンを適用することで時間的に連続する入力画像の領域分割方法を順次切り替え
前記切替手段は、前記複数の画像認識処理手段により出力された認識情報に基づいて、追尾認識対象が存在するか否かを判断し、追尾認識対象が存在すると判断した場合、前記追尾認識対象の位置を推定し、推定した位置に領域分割における境界が位置しないように前記入力画像の領域分割方法を決定する画像処理装置。
A switching means for switching a region dividing method of temporally continuous input images;
A supply means for supplying a plurality of image recognition processing means for a plurality of partial region images, corresponding respectively divided based on switched that the area dividing method by the switching means,
Have
It said switching means, for the first input image, by applying the first area division pattern, for the next second input image of the first input image, the first region divided sequentially switching the area dividing method of the input temporally continuous images by applying a different second area division pattern is a pattern,
The switching means determines whether or not a tracking recognition target exists based on the recognition information output by the plurality of image recognition processing means, and determines that the tracking recognition target exists. An image processing apparatus that estimates a position and determines a region division method of the input image so that a boundary in region division is not located at the estimated position .
前記第1の領域分割パターンは、入力画像をある方向に等しい幅の連続する領域に分割する領域分割パターンであり、
前記第2の領域分割パターンは、前記分割の位置を前記幅の半分の幅だけ前記方向に沿ってずらした位置で入力画像を分割する領域分割パターンである請求項1記載の画像処理装置。
The first area division pattern is a region division pattern for dividing a continuous area of width equal to the direction in an input image,
The second area division pattern, the division position of a region division pattern for dividing the input image in a position where only shifted along the direction half the width of the width Claim 1 image processing apparatus according .
前記複数の画像認識処理手段を更に有する請求項1乃至3何れか1項記載の画像処理装置。 The image processing apparatus of the plurality of image recognition processing according to claim 1 to 3 further comprising means any preceding claim. 前記複数の画像認識処理手段のそれぞれは、供給された部分領域画像に対して画像認識処理を行い、認識対象の存在領域を示す位置情報と前記認識対象の属性を示す属性情報とを認識結果として出力する請求項1乃至4何れか1項記載の画像処理装置。 Each of the plurality of image recognition processing means performs an image recognition process on the supplied partial area image, and uses position information indicating the existence area of the recognition target and attribute information indicating the attribute of the recognition target as a recognition result. the image processing apparatus according to claim 1 to 4 any one of claims outputs. 前記複数の画像認識処理手段は、前記接合された部分領域画像の接合境界をまたぐ領域を認識情報として得た場合、前記認識情報を破棄する請求項記載の画像処理装置。 Wherein the plurality of image recognition processing unit, when obtaining the region spanning the junction boundary of the bonded portion area image as a recognition information, the recognition information discarding claim 1 image processing apparatus according. 前記複数の画像認識処理手段により出力された認識情報をメモリに記憶する処理結果記憶手段を更に有し、
前記切替手段は、前記処理結果記憶手段により前記メモリに記憶された前記認識情報に基づいて、追尾認識対象が存在するか否かを判断し、追尾認識対象が存在しないと判断した場合、時間的に連続する入力画像の領域分割方法を順次切り替える請求項1乃至6何れか1項記載の画像処理装置。
Further comprising processing result storage means for storing the recognition information output by the plurality of image recognition processing means in a memory;
The switching means determines whether or not there is a tracking recognition target based on the recognition information stored in the memory by the processing result storage means, and determines that there is no tracking recognition target. The image processing apparatus according to claim 1, wherein a region dividing method for successive input images is sequentially switched.
画像処理装置が実行する画像処理方法であって、
時間的に連続する入力画像の領域分割方法を切り替える切替ステップと、
前記切替ステップにより切り替えられ領域分割方法に基づき分割された複数の部分領域画像を、それぞれ対応する複数の画像認識処理ステップに供給する供給ステップと、
を含み、
前記切替ステップでは、第1の入力画像に対しては、第1の領域分割パターンを適用し、前記第1の入力画像の次の第2の入力画像に対しては、前記第1の領域分割パターンとは異なる第2の領域分割パターンを適用することで時間的に連続する入力画像の領域分割方法を順次切り替え
前記供給ステップでは、前記領域分割方法に基づき分割された複数の部分領域画像のうち少なくとも2つ以上の部分領域画像が同じ画像認識処理ステップで処理される画像であるにも関わらず分断されていた場合、分断された部分領域画像を接合し1枚の画像とし、前記画像認識処理ステップに供給する画像処理方法。
An image processing method executed by an image processing apparatus,
A switching step for switching a region dividing method of temporally continuous input images;
A plurality of divided partial region images were based on the switched that the area dividing method by the switching step, a supply step of supplying to the corresponding plurality of image recognition processing step,
Including
In the switching step, for the first input image, by applying the first area division pattern, to the first input image following the second input image, the first region divided sequentially switching the area dividing method of the input temporally continuous images by applying a different second area division pattern is a pattern,
In the supplying step, at least two or more partial region images among the plurality of partial region images divided based on the region dividing method are divided although they are images processed in the same image recognition processing step. In this case, an image processing method in which the divided partial area images are joined to form one image and supplied to the image recognition processing step .
画像処理装置が実行する画像処理方法であって、An image processing method executed by an image processing apparatus,
時間的に連続する入力画像の領域分割方法を切り替える切替ステップと、A switching step for switching a region dividing method of temporally continuous input images;
前記切替ステップにより切り替えられる領域分割方法に基づき分割された複数の部分領域画像を、それぞれ対応する複数の画像認識処理ステップに供給する供給ステップと、Supplying a plurality of partial region images divided based on the region dividing method switched by the switching step to a plurality of corresponding image recognition processing steps,
を含み、Including
前記切替ステップでは、第1の入力画像に対しては、第1の領域分割パターンを適用し、前記第1の入力画像の次の第2の入力画像に対しては、前記第1の領域分割パターンとは異なる第2の領域分割パターンを適用することで時間的に連続する入力画像の領域分割方法を順次切り替え、In the switching step, the first area division pattern is applied to the first input image, and the first area division is applied to the second input image next to the first input image. By applying a second region segmentation pattern different from the pattern, the region segmentation method of the temporally continuous input image is sequentially switched,
前記切替ステップでは、前記複数の画像認識処理ステップにより出力された認識情報に基づいて、追尾認識対象が存在するか否かを判断し、追尾認識対象が存在すると判断した場合、前記追尾認識対象の位置を推定し、推定した位置に領域分割における境界が位置しないように前記入力画像の領域分割方法を決定する画像処理方法。In the switching step, based on the recognition information output by the plurality of image recognition processing steps, it is determined whether there is a tracking recognition target, and if it is determined that the tracking recognition target exists, the tracking recognition target An image processing method for estimating a position and determining a region division method of the input image so that a boundary in region division is not located at the estimated position.
コンピュータを請求項1乃至何れか1項記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 7 .
JP2015028036A 2015-02-16 2015-02-16 Image processing apparatus, image processing method, and program Active JP6562648B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015028036A JP6562648B2 (en) 2015-02-16 2015-02-16 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015028036A JP6562648B2 (en) 2015-02-16 2015-02-16 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2016151833A JP2016151833A (en) 2016-08-22
JP6562648B2 true JP6562648B2 (en) 2019-08-21

Family

ID=56696613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015028036A Active JP6562648B2 (en) 2015-02-16 2015-02-16 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6562648B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7187377B2 (en) * 2019-04-23 2022-12-12 株式会社日立製作所 OBJECT INFORMATION REGISTRATION DEVICE AND OBJECT INFORMATION REGISTRATION METHOD

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4687244B2 (en) * 2005-05-27 2011-05-25 アイシン・エィ・ダブリュ株式会社 Image processing system and image processing method
JP4567630B2 (en) * 2006-05-26 2010-10-20 富士通株式会社 Vehicle type identification program and vehicle type identification device
JP4966820B2 (en) * 2007-10-29 2012-07-04 パナソニック株式会社 Congestion estimation apparatus and method
JP2009251679A (en) * 2008-04-01 2009-10-29 Sony Ericsson Mobilecommunications Japan Inc Imaging apparatus and image recognition method
JP2013008070A (en) * 2009-10-20 2013-01-10 Panasonic Corp Sign recognition device and sign recognition method
JP5095850B1 (en) * 2011-08-31 2012-12-12 株式会社東芝 Object search device, video display device, and object search method
JP6197291B2 (en) * 2012-03-21 2017-09-20 株式会社リコー Compound eye camera device and vehicle equipped with the same
JP2014006586A (en) * 2012-06-21 2014-01-16 Canon Inc Information processor, and control method and computer program thereof
JP2014153192A (en) * 2013-02-08 2014-08-25 Aisin Aw Co Ltd Travel guide system, travel guide method, and computer program

Also Published As

Publication number Publication date
JP2016151833A (en) 2016-08-22

Similar Documents

Publication Publication Date Title
JP4814375B2 (en) Detection device, detection method, and integrated circuit for detection
JP5885398B2 (en) Image processing apparatus and image processing method
JP6682559B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
US10818018B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20210402134A1 (en) Information processing apparatus, information processing method, and storage medium
JP7032871B2 (en) Image processing equipment and image processing methods, programs, storage media
CN106251348B (en) Self-adaptive multi-cue fusion background subtraction method for depth camera
US8644553B2 (en) Image display device, image display method, and image display program
US9158994B2 (en) Apparatus and method for real-time capable disparity estimation for virtual view rendering suitable for multi-threaded execution
CN105227833A (en) Continuous focusing method and device
KR102344227B1 (en) Moving body detecting device, moving body detecting method, and moving body detecting program
JP6562648B2 (en) Image processing apparatus, image processing method, and program
JP6338379B2 (en) Information processing apparatus and information processing apparatus control method
US9106926B1 (en) Using double confirmation of motion vectors to determine occluded regions in images
JP2010271876A (en) Traveling object tracking device, traveling object tracking method, and program
JP2017123589A (en) Information processing apparatus, information processing method, and video projection system
KR101204866B1 (en) Method and apparatus of executing pixel calculation within window area at high speed in window-based image processing
JP6668740B2 (en) Road surface estimation device
JP5441737B2 (en) Image processing apparatus, image processing method, and image processing program
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
CN104980623B (en) Detection method and detection device
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
JP6763473B2 (en) Object detection device, traffic monitoring system, control method and program of object detection device
JP2018092507A (en) Image processing apparatus, image processing method, and program
JP2015103103A (en) Image processing apparatus, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190723

R151 Written notification of patent or utility model registration

Ref document number: 6562648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151