JP2020201879A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP2020201879A
JP2020201879A JP2019110437A JP2019110437A JP2020201879A JP 2020201879 A JP2020201879 A JP 2020201879A JP 2019110437 A JP2019110437 A JP 2019110437A JP 2019110437 A JP2019110437 A JP 2019110437A JP 2020201879 A JP2020201879 A JP 2020201879A
Authority
JP
Japan
Prior art keywords
image
fisheye
divided
unit
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019110437A
Other languages
Japanese (ja)
Other versions
JP6820489B2 (en
Inventor
木村 真敏
Masatoshi Kimura
真敏 木村
智弘 石田
Tomohiro Ishida
智弘 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Client Computing Ltd
Original Assignee
Fujitsu Client Computing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Client Computing Ltd filed Critical Fujitsu Client Computing Ltd
Priority to JP2019110437A priority Critical patent/JP6820489B2/en
Publication of JP2020201879A publication Critical patent/JP2020201879A/en
Application granted granted Critical
Publication of JP6820489B2 publication Critical patent/JP6820489B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

To use a fisheye image in machine learning with high recognition accuracy while considering distortion in the image.SOLUTION: An image processing apparatus comprises: an acquisition unit that acquires a fisheye image photographed with photographing means including a fisheye lens; a division unit that divides the fisheye image into a plurality of divided images in the circumferential direction; a conversion unit that converts the plurality of divided images into rectangular plane images; a composition unit that connects the plurality of plane images to create a rectangular composite plane image; and a first inference unit that infers an object captured in the composite plane image based on the composite plane image and a first inference model that is learned through machine learning related to the plane image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、および、画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.

近年、撮影画像を用いた機械学習(推論を含む。)の研究開発が盛んに行われている。また、従来から、一般的な撮影画像のほかに、魚眼レンズを使って広範囲を撮影した画像である魚眼画像がある。魚眼画像を機械学習に用いることができれば、様々な点で有益である。 In recent years, research and development of machine learning (including inference) using captured images has been actively carried out. Further, conventionally, in addition to a general captured image, there is a fisheye image which is an image captured in a wide range using a fisheye lens. It would be beneficial in many ways if fisheye images could be used for machine learning.

特開2016−48834号公報Japanese Unexamined Patent Publication No. 2016-48834 特開2012−253723号公報Japanese Unexamined Patent Publication No. 2012-253723 特開2010−217984号公報JP-A-2010-217984 国際公開第2013/001941号International Publication No. 2013/001941 特表2014−519091号公報Special Table 2014-519091 特開2012−226645号公報Japanese Unexamined Patent Publication No. 2012-226645 特開2012−230546号公報Japanese Unexamined Patent Publication No. 2012-23546

しかしながら、魚眼画像は、画像中の位置によって被写体が異なる歪み方をしているので、機械学習に高い認識精度で用いるのは容易ではない。 However, since the subject of the fisheye image is distorted differently depending on the position in the image, it is not easy to use it for machine learning with high recognition accuracy.

そこで、本発明は、上記事情に鑑みてなされたものであり、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる画像処理装置、および、画像処理プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above circumstances, and an image processing device and an image processing program capable of using a fish-eye image for machine learning with high recognition accuracy in consideration of distortion in an image are provided. The purpose is to provide.

本発明の第1態様に係る画像処理装置は、魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、前記魚眼画像を周方向に複数の分割画像に分割する分割部と、複数の前記分割画像それぞれを矩形の平面画像に変換する変換部と、複数の前記平面画像をつなぎ合わせて矩形の合成平面画像を作成する合成部と、前記合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、前記合成平面画像に写っている物体を推論する第1の推論部と、を備える。 The image processing apparatus according to the first aspect of the present invention includes an acquisition unit that acquires a fisheye image captured by an imaging means including a fisheye lens, and a division unit that divides the fisheye image into a plurality of divided images in the circumferential direction. , A conversion unit that converts each of the plurality of divided images into a rectangular plane image, a composition unit that connects the plurality of the plane images to create a rectangular composite plane image, and a machine related to the composite plane image and the plane image. It includes a first inference model that has been learned by learning, and a first inference unit that infers an object in the composite plane image based on the first inference model.

また、画像処理装置において、例えば、前記合成部は、複数の前記平面画像をつなぎ合わせて矩形の前記合成平面画像を作成する際に、前記合成平面画像の縦と横の長さの比が1:1に近づくように、複数の前記平面画像をつなぎ合わせて矩形の前記合成平面画像を作成する。 Further, in the image processing apparatus, for example, when the compositing unit joins a plurality of the plane images to create a rectangular composite plane image, the ratio of the length to the width of the composite plane image is 1. A rectangular composite plane image is created by joining a plurality of the plane images so as to approach 1: 1.

また、画像処理装置において、例えば、前記分割部は、前記魚眼画像を周方向に複数の分割画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、前記魚眼画像を周方向に複数の分割画像に分割する。 Further, in the image processing apparatus, for example, when the fisheye image is divided into a plurality of divided images in the circumferential direction, the divided portion is based on statistical information about the moving object in the past fisheye image. The fisheye image is divided into a plurality of divided images in the circumferential direction so that the divided positions are not as large as the region.

また、画像処理装置において、例えば、前記分割部は、前記統計情報に基づいて、魚眼画像中の移動物体が多い2つの領域が分割位置にならないようにして、前記魚眼画像を周方向に2つの分割画像に分割する際に、前記魚眼画像の中心から当該2つの領域それぞれの中心までの直線同士のなす角度が90度未満の場合は、当該2つの領域が同じ側になるように、前記魚眼画像を、前記魚眼画像の中心を通る1本の線で周方向に分割し、当該角度が90度以上の場合は、当該2つの領域が反対側になるように、前記魚眼画像を、前記魚眼画像の中心を通る1本の線で周方向に分割する。 Further, in the image processing apparatus, for example, based on the statistical information, the divided portion sets the fish-eye image in the circumferential direction by preventing the two regions in the fish-eye image having many moving objects from becoming divided positions. When dividing into two divided images, if the angle between the straight lines from the center of the fisheye image to the center of each of the two regions is less than 90 degrees, the two regions should be on the same side. The fish-eye image is divided in the circumferential direction by a single line passing through the center of the fish-eye image, and when the angle is 90 degrees or more, the fish so that the two regions are on opposite sides. The eye image is divided in the circumferential direction by a single line passing through the center of the fisheye image.

また、画像処理装置において、例えば、前記分割部は、前記統計情報を元に魚眼画像中の領域を移動物体の出現頻度で分類した情報であるヒートマップ情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、前記魚眼画像を周方向に複数の分割画像に分割する。 Further, in the image processing apparatus, for example, the divided portion is a region having many moving objects based on heat map information which is information obtained by classifying the regions in the fisheye image according to the appearance frequency of the moving objects based on the statistical information. The fish-eye image is divided into a plurality of divided images in the circumferential direction so that the divided positions are not so large.

また、画像処理装置において、例えば、前記画像処理装置は、前記魚眼画像から光軸中心を含む中央画像を抽出する中央画像抽出部と、前記中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、前記中央画像に写っている物体を推論する第2の推論部と、をさらに備える。 Further, in the image processing device, for example, the image processing device has been learned by a central image extraction unit that extracts a central image including the center of the optical axis from the fisheye image, the central image, and machine learning about the central image. A second inference model and a second inference unit that infers the object shown in the central image based on the second inference model are further provided.

また、画像処理装置において、例えば、前記取得部は、撮影対象領域を鉛直下向きに撮影するように設置されている前記撮影手段によって撮影された前記魚眼画像を取得する。 Further, in the image processing device, for example, the acquisition unit acquires the fisheye image photographed by the photographing means installed so as to photograph the area to be photographed vertically downward.

本発明の第2態様に係る画像処理プログラムは、コンピュータを、魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、前記魚眼画像を周方向に複数の分割画像に分割する分割部と、複数の前記分割画像それぞれを矩形の平面画像に変換する変換部と、複数の前記平面画像をつなぎ合わせて矩形の合成平面画像を作成する合成部と、前記合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、前記合成平面画像に写っている物体を推論する第1の推論部と、して機能させる。 The image processing program according to the second aspect of the present invention divides the computer into a acquisition unit for acquiring a fisheye image captured by an imaging means provided with a fisheye lens, and the fisheye image into a plurality of divided images in the circumferential direction. A division unit, a conversion unit that converts each of the plurality of divided images into a rectangular plane image, a composition unit that connects the plurality of the plane images to create a rectangular composite plane image, the composite plane image, and a plane. It functions as a first inference model that has been learned by machine learning about an image, and as a first inference unit that infers an object appearing in the composite plane image based on the first inference model.

本発明の上記第1態様、上記第2態様によれば、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる。 According to the first aspect and the second aspect of the present invention, the fisheye image can be used for machine learning with high recognition accuracy in consideration of the distortion in the image.

図1は、実施形態の画像処理装置の機能構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of the image processing apparatus of the embodiment. 図2は、実施形態の魚眼画像例の模式図である。FIG. 2 is a schematic view of an example of a fisheye image of the embodiment. 図3は、実施形態の魚眼画像例における中央画像の抽出領域を示す図である。FIG. 3 is a diagram showing an extraction region of a central image in the fisheye image example of the embodiment. 図4は、実施形態の魚眼画像例における外周側画像の抽出領域を示す図である。FIG. 4 is a diagram showing an extraction region of the outer peripheral side image in the fisheye image example of the embodiment. 図5は、実施形態において、外周側画像に基づいて作成した合成平面画像((a))と、抽出された中央画像((b))と、を示す図である。FIG. 5 is a diagram showing a composite plane image ((a)) created based on the outer peripheral side image and an extracted central image ((b)) in the embodiment. 図6は、実施形態の画像処理装置による第1の処理を示すフローチャートである。FIG. 6 is a flowchart showing the first processing by the image processing apparatus of the embodiment. 図7は、図6の第1の処理における分割位置設定処理の詳細を示すフローチャートである。FIG. 7 is a flowchart showing details of the division position setting process in the first process of FIG. 図8は、実施形態において、ヒートマップにおける人物集中領域が1つの場合の外周側画像の分割位置の設定例の説明図である。FIG. 8 is an explanatory diagram of an example of setting the division position of the outer peripheral side image when there is one person concentration area in the heat map in the embodiment. 図9は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第1の設定例の説明図である。FIG. 9 is an explanatory diagram of a first setting example of the division position of the outer peripheral side image when there are two person concentration areas in the heat map in the embodiment. 図10は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第2の設定例の説明図である。FIG. 10 is an explanatory diagram of a second setting example of the division position of the outer peripheral side image when there are two person concentration areas in the heat map in the embodiment. 図11は、実施形態の画像処理装置による第2の処理を示すフローチャートである。FIG. 11 is a flowchart showing a second process by the image processing apparatus of the embodiment.

以下、添付図面を参照して、画像処理装置、および、画像処理プログラムの実施形態について詳細に説明する。 Hereinafter, an image processing apparatus and an embodiment of an image processing program will be described in detail with reference to the accompanying drawings.

図1は、実施形態の画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、撮影画像を用いた機械学習(推論を含む。)を実行するコンピュータ装置である。この機械学習では、例えば、カメラにより得られた撮影画像に対して画像処理を行って、画像中の人物や顔を検出することで学習を行う。また、機械学習としては、例えば、ディープラーニング(深層学習)を用いる。 FIG. 1 is a block diagram showing a functional configuration of the image processing device 1 of the embodiment. The image processing device 1 is a computer device that executes machine learning (including inference) using captured images. In this machine learning, for example, image processing is performed on a captured image obtained by a camera, and learning is performed by detecting a person or a face in the image. Further, as machine learning, for example, deep learning (deep learning) is used.

ディープラーニングは、多層構造のニューラルネットワークを用いた機械学習であり、多くの分野で有効性が確認されている。例えば、ディープラーニングは、画像・音声の認識において人間に匹敵するほど高い認識精度を実現している。 Deep learning is machine learning using a multi-layered neural network, and its effectiveness has been confirmed in many fields. For example, deep learning has achieved high recognition accuracy comparable to humans in image / voice recognition.

ディープラーニングでは、識別対象に関する教師データを用いた学習(教師あり学習)を行うことにより、ニューラルネットワークに自動的に識別対象の特徴を学習する。そして、ディープラーニングでは、特徴を学習したニューラルネットワークを用いて識別対象を識別(推論)する。 In deep learning, the characteristics of the identification target are automatically learned in the neural network by performing learning (supervised learning) using the teacher data regarding the identification target. Then, in deep learning, the identification target is identified (inferred) using a neural network that has learned the features.

例えば、推論処理として画像における人物検出を例にとると、ディープラーニングでは、人物全体が写った大量の画像を学習用の画像として教師あり学習を行うことにより、画像に写った人物全体の特徴をニューラルネットワークに自動的に学習する。あるいは、推論処理として画像における顔検出を例にとると、ディープラーニングでは、人物の顔が写った大量の画像を学習用の画像として教師あり学習を行うことにより、画像に写った人物の顔の特徴をニューラルネットワークに自動的に学習する。 For example, taking the detection of a person in an image as an inference process, in deep learning, a large number of images of the entire person are used as learning images for supervised learning to obtain the characteristics of the entire person in the image. Automatically learn from neural networks. Alternatively, taking face detection in an image as an example of inference processing, in deep learning, a large number of images showing a person's face are used as learning images for supervised learning, so that the face of the person in the image is captured. The features are automatically learned from the neural network.

ディープラーニングでは、このように特徴を学習したニューラルネットワークを用いることで、画像に写った識別対象を識別することなどの推論処理が可能な学習済みの推論モデルを生成できる。 In deep learning, by using a neural network whose features have been learned in this way, it is possible to generate a trained inference model capable of inference processing such as identifying an identification target in an image.

このようなディープラーニングなどの機械学習に、魚眼レンズを使って広範囲を撮影した画像である魚眼画像を用いることができれば、様々な点で有益である。しかし、魚眼画像は、画像中の位置によって被写体が異なる歪み方をしているので、機械学習に高い認識精度で用いるのは容易ではない。なお、以下では、特に、撮影対象領域を鉛直下向きに撮影するように設置されている魚眼カメラ(以下、単に「カメラ」とも称する。)によって撮影された魚眼画像を例にとって説明する。 It would be beneficial in various respects if a fisheye image, which is an image taken over a wide area using a fisheye lens, could be used for machine learning such as deep learning. However, since the subject of the fisheye image is distorted differently depending on the position in the image, it is not easy to use it for machine learning with high recognition accuracy. In the following, a fisheye image taken by a fisheye camera (hereinafter, also simply referred to as “camera”) installed so as to shoot a shooting target area vertically downward will be described as an example.

そのような魚眼画像では、画像中の位置によって被写体の歪み方(映る角度、大きさ)が異なり、したがって認識する特徴も異なるため、認識精度に誤差が生じてしまう。また、この魚眼画像を平面展開すると画像中心に近いほど被写体が大きく引き伸ばされてしまい、認識精度にさらに誤差が生じてしまう。そこで、以下では、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる技術について説明する。 In such a fisheye image, the distortion method (projection angle, size) of the subject differs depending on the position in the image, and therefore the recognition characteristics also differ, so that an error occurs in the recognition accuracy. Further, when this fisheye image is expanded in a plane, the subject is greatly stretched as it is closer to the center of the image, which further causes an error in recognition accuracy. Therefore, in the following, a technique capable of using a fisheye image for machine learning with high recognition accuracy in consideration of distortion in the image will be described.

図1に示すように、画像処理装置1は、処理部2、記憶部3、入力部4、表示部5、および、通信部6を備える。 As shown in FIG. 1, the image processing device 1 includes a processing unit 2, a storage unit 3, an input unit 4, a display unit 5, and a communication unit 6.

処理部2は、例えばCPU(Central Processing Unit)によって構成され、記憶部3に記憶された画像処理プログラムを実行することで実現される機能構成として、取得部21、中央画像抽出部22、外周側画像抽出部23、分割部24、変換部25、合成部26、第1の推論部27、および、第2の推論部28を備える。なお、以下において、処理部2における各部21〜28以外の処理については、動作主体を「処理部2」と表記する。 The processing unit 2 is composed of, for example, a CPU (Central Processing Unit), and has a functional configuration realized by executing an image processing program stored in the storage unit 3, such as an acquisition unit 21, a central image extraction unit 22, and an outer peripheral side. It includes an image extraction unit 23, a division unit 24, a conversion unit 25, a composition unit 26, a first inference unit 27, and a second inference unit 28. In the following, for the processing other than each unit 21 to 28 in the processing unit 2, the operating subject is referred to as "processing unit 2".

取得部21は、魚眼レンズを備えるカメラ100(撮影手段)によって撮影された魚眼画像を取得し、記憶部3に格納する。 The acquisition unit 21 acquires a fisheye image captured by a camera 100 (photographing means) provided with a fisheye lens and stores it in the storage unit 3.

中央画像抽出部22は、魚眼画像から光軸中心を含む中央画像(例えば矩形の中央画像)を抽出する。外周側画像抽出部23は、魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する。 The central image extraction unit 22 extracts a central image including the center of the optical axis (for example, a rectangular central image) from the fisheye image. The outer peripheral side image extraction unit 23 extracts an outer peripheral side image existing on the outer peripheral side from a predetermined region including the center of the optical axis from the fisheye image.

分割部24は、外周側画像を周方向に複数の分割画像に分割する。例えば、分割部24は、外周側画像を周方向に複数の分割画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、外周側画像を周方向に複数の分割画像に分割する。 The dividing unit 24 divides the outer peripheral side image into a plurality of divided images in the circumferential direction. For example, when the outer peripheral side image is divided into a plurality of divided images in the circumferential direction, the division unit 24 does not have a divided position as much as a region having many moving objects based on statistical information about moving objects in the past fisheye image. In this way, the outer peripheral side image is divided into a plurality of divided images in the circumferential direction.

また、例えば、分割部24は、統計情報に基づいて、魚眼画像中の移動物体が多い2つの領域が分割位置にならないようにして、外周側画像を周方向に2つの分割画像に分割する際に、魚眼画像の中心から当該2つの領域それぞれの中心までの直線同士のなす角度が90度未満の場合は、当該2つの領域が同じ側になるように、外周側画像を、魚眼画像の中心を通る1本の線で周方向に分割する。また、分割部24は、当該角度が90度以上の場合は、当該2つの領域が反対側になるように、外周側画像を、魚眼画像の中心を通る1本の線で周方向に分割する。 Further, for example, the division unit 24 divides the outer peripheral side image into two divided images in the circumferential direction based on the statistical information so that the two regions having many moving objects in the fisheye image do not become the divided positions. At that time, if the angle between the straight lines from the center of the fish-eye image to the center of each of the two regions is less than 90 degrees, the outer peripheral side image is displayed as a fish-eye so that the two regions are on the same side. It is divided in the circumferential direction by a single line passing through the center of the image. Further, when the angle is 90 degrees or more, the dividing portion 24 divides the outer peripheral side image in the circumferential direction by a single line passing through the center of the fisheye image so that the two regions are on opposite sides. To do.

また、例えば、分割部24は、統計情報を元に魚眼画像中の領域を移動物体の出現頻度で分類した情報であるヒートマップ情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、外周側画像を周方向に複数の分割画像に分割する。 Further, for example, the division unit 24 does not have a division position as much as a region having many moving objects, based on heat map information which is information obtained by classifying the regions in the fisheye image based on the appearance frequency of moving objects based on statistical information. Then, the outer peripheral side image is divided into a plurality of divided images in the circumferential direction.

変換部25は、複数の分割画像それぞれを矩形の平面画像に変換する。合成部26は、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成する際に、合成平面画像の縦と横の長さの比が1:1に近づくように(つまり、複数のつなぎ合わせ方のうち、縦と横の長さの比が1:1に一番近いつなぎ合わせ方で)、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成する。 The conversion unit 25 converts each of the plurality of divided images into a rectangular flat image. When the compositing unit 26 joins a plurality of plane images to create a rectangular composite plane image, the ratio of the length to the width of the composite plane image approaches 1: 1 (that is, a plurality of splices). Of the methods of joining, the method of joining that has the closest ratio of vertical to horizontal length to 1: 1), and joins multiple flat images to create a rectangular composite flat image.

第1の推論部27は、合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、合成平面画像に写っている物体を推論する。 The first inference unit 27 infers an object appearing in the composite plane image based on the composite plane image and the first inference model learned by machine learning about the plane image.

第2の推論部28は、中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、中央画像に写っている物体を推論する。各部21〜28の処理の詳細については、図2以降を用いて後述する。 The second inference unit 28 infers the object shown in the central image based on the central image and the second inference model learned by machine learning about the central image. Details of the processing of each part 21 to 28 will be described later with reference to FIGS. 2 and 2.

記憶部3は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などから構成される。 The storage unit 3 is composed of semiconductor memory elements such as RAM (Random Access Memory), ROM (Read Only Memory), and flash memory (Flash Memory), HDD (Hard Disk Drive), and the like.

記憶部3は、例えば、統計情報、ヒートマップ情報、第1の推論モデル、第2の推論モデル等を記憶する。統計情報は、上述のように、過去の魚眼画像中の移動物体に関する統計情報である。ヒートマップ情報は、統計情報を元に魚眼画像中の領域を移動物体の出現頻度で分類した情報である。 The storage unit 3 stores, for example, statistical information, heat map information, a first inference model, a second inference model, and the like. As described above, the statistical information is statistical information regarding moving objects in past fisheye images. The heat map information is information in which regions in the fisheye image are classified according to the appearance frequency of moving objects based on statistical information.

第1の推論モデルは、平面画像に関する機械学習によって学習済みの推論モデルである。第2の推論モデルは、中央画像に関する機械学習によって学習済みの推論モデルである。つまり、画像処理装置1では、魚眼画像において画像中の位置によって被写体が異なる歪み方をしていることを考慮して、外周側画像を変換した平面画像に関する第1の推論モデルと、中央画像に関する第2の推論モデルと、を別々に用意する。これにより、高精度の物体認識が可能となる。 The first inference model is an inference model that has been learned by machine learning about a plane image. The second inference model is an inference model trained by machine learning on the central image. That is, in the image processing device 1, the first inference model for the plane image obtained by converting the outer peripheral side image and the central image are taken into consideration that the subject is distorted differently depending on the position in the image in the fisheye image. A second inference model for is prepared separately. This enables highly accurate object recognition.

入力部4は、ユーザが各種情報を入力するための手段であり、例えば、キーボード、マウス、タッチパネル等によって構成される。 The input unit 4 is a means for the user to input various information, and is composed of, for example, a keyboard, a mouse, a touch panel, and the like.

表示部5は、各種情報を表示するための手段であり、例えば、液晶ディスプレイやタッチパネル等によって構成される。 The display unit 5 is a means for displaying various information, and is composed of, for example, a liquid crystal display, a touch panel, or the like.

通信部6は、カメラ100等の外部装置と通信するための手段であり、例えば、通信インタフェース等によって構成される。 The communication unit 6 is a means for communicating with an external device such as a camera 100, and is composed of, for example, a communication interface or the like.

図2は、実施形態の魚眼画像例の模式図である。図2における魚眼画像F1は、カメラ100によって撮影対象領域を鉛直下向きに撮影して得られた画像である。魚眼画像F1では、画像中の位置によって人物の映る角度や大きさが異なっている。具体的には、画像の中心に近いほど人物は頭頂部方向から撮影されたように、かつ、大きく写り、また、画像の中心から遠いほど人物は水平方向から撮影されたように、かつ、小さく写っている。 FIG. 2 is a schematic view of an example of a fisheye image of the embodiment. The fisheye image F1 in FIG. 2 is an image obtained by photographing the image target area vertically downward with the camera 100. In the fisheye image F1, the angle and size of a person appearing differ depending on the position in the image. Specifically, the closer to the center of the image, the larger the person appears to be taken from the top of the head, and the farther from the center of the image, the smaller the person appears to be taken from the horizontal direction. It is reflected.

ここで、図3は、実施形態の魚眼画像例における中央画像の抽出領域を示す図である。図3の魚眼画像F1において、領域R1は中央画像に対応する領域である。つまり、中央画像抽出部22は、魚眼画像F1から領域R1に対応する画像を中央画像として抽出する。 Here, FIG. 3 is a diagram showing an extraction region of the central image in the fisheye image example of the embodiment. In the fisheye image F1 of FIG. 3, the region R1 is a region corresponding to the central image. That is, the central image extraction unit 22 extracts the image corresponding to the region R1 from the fisheye image F1 as the central image.

また、図4は、実施形態の魚眼画像例における外周側画像の抽出領域を示す図である。図4の魚眼画像F1において、領域R2と領域R3を合わせた領域(以下、領域R23と称する。)は、外周側画像に対応する領域である。つまり、外周側画像抽出部23は、魚眼画像F1から領域R23に対応する画像を外周側画像として抽出する。なお、魚眼画像F1から、領域R1に内接する中心円(全体の中心点を中心とする円)を除いた領域が、領域R23である。 Further, FIG. 4 is a diagram showing an extraction region of the outer peripheral side image in the fisheye image example of the embodiment. In the fisheye image F1 of FIG. 4, the region in which the region R2 and the region R3 are combined (hereinafter, referred to as the region R23) is a region corresponding to the outer peripheral side image. That is, the outer peripheral side image extraction unit 23 extracts the image corresponding to the region R23 from the fisheye image F1 as the outer peripheral side image. The region R23 is the region excluding the central circle (a circle centered on the entire center point) inscribed in the region R1 from the fisheye image F1.

また、分割部24は、例えば、領域R23に対応する外周側画像を周方向に2つの分割画像(領域R2に対応する分割画像と領域R3に対応する分割画像)に分割する。 Further, the dividing unit 24 divides, for example, the outer peripheral side image corresponding to the area R23 into two divided images in the circumferential direction (a divided image corresponding to the area R2 and a divided image corresponding to the area R3).

また、図5は、実施形態において、外周側画像に基づいて作成した合成平面画像((a))と、抽出された中央画像((b))と、を示す図である。図5(a)において、領域R3aの画像は、図4の領域R3の分割画像に対応する平面画像である。つまり、変換部25は、図4の領域R3の分割画像を平面展開することで、図5(a)の領域R3aの矩形の平面画像に変換する。 Further, FIG. 5 is a diagram showing a composite plane image ((a)) created based on the outer peripheral side image and an extracted central image ((b)) in the embodiment. In FIG. 5A, the image of the region R3a is a plane image corresponding to the divided image of the region R3 of FIG. That is, the conversion unit 25 converts the divided image of the region R3 of FIG. 4 into a rectangular flat image of the region R3a of FIG. 5A by developing the plane.

また、図5(a)において、領域R2aの画像は、図4の領域R2の分割画像に対応する平面画像である。つまり、変換部25は、図4の領域R2の分割画像を平面展開することで、図5(a)の領域R2aの矩形の平面画像に変換する。 Further, in FIG. 5A, the image of the region R2a is a plane image corresponding to the divided image of the region R2 of FIG. That is, the conversion unit 25 converts the divided image of the region R2 of FIG. 4 into a rectangular flat image of the region R2a of FIG. 5A by developing the plane.

また、合成部26は、領域R2aの平面画像と領域R3aの平面画像をつなぎ合わせて矩形の合成平面画像を作成する。その際、合成部26は、合成平面画像の縦と横の長さの比が1:1に近づくように、合成平面画像を作成する。そうすることで、合成平面画像を機械学習に用いたときの人物の認識精度が高くなる。第1の推論部27は、図5(a)の合成平面画像と第1の推論モデルに基づいて、合成平面画像に写っている物体を推論する。 Further, the compositing unit 26 creates a rectangular composite plane image by connecting the plane image of the region R2a and the plane image of the region R3a. At that time, the composite unit 26 creates the composite plane image so that the ratio of the length to the width of the composite plane image approaches 1: 1. By doing so, the recognition accuracy of the person when the composite plane image is used for machine learning is improved. The first inference unit 27 infers the object shown in the composite plane image based on the composite plane image of FIG. 5A and the first inference model.

また、図5(b)において、領域R1の中央画像は、図3の領域R1の中央画像と同じである。そして、第2の推論部28は、図5(b)の中央画像と第2の推論モデルに基づいて、中央画像に写っている物体を推論する。 Further, in FIG. 5B, the central image of the region R1 is the same as the central image of the region R1 of FIG. Then, the second inference unit 28 infers the object shown in the central image based on the central image and the second inference model of FIG. 5 (b).

次に、図6を参照して、実施形態の画像処理装置1による第1の処理について説明する。図6は、実施形態の画像処理装置1による第1の処理を示すフローチャートである。この第1の処理は、推論処理を行う前の前処理である。 Next, with reference to FIG. 6, the first processing by the image processing apparatus 1 of the embodiment will be described. FIG. 6 is a flowchart showing a first process by the image processing device 1 of the embodiment. This first process is a preprocess before performing the inference process.

ステップS1において、処理部2は、記憶部3に格納されている画像処理アプリケーションを起動する。 In step S1, the processing unit 2 starts the image processing application stored in the storage unit 3.

次に、ステップS2において、処理部2は、カメラ100と接続されているか否かを判定し、Yesの場合はステップS3に進み、Noの場合は処理を終了する。 Next, in step S2, the processing unit 2 determines whether or not the camera is connected to the camera 100, proceeds to step S3 in the case of Yes, and ends the processing in the case of No.

ステップS3において、処理部2は、記憶部3に格納されているカメラの機能情報を取得する。 In step S3, the processing unit 2 acquires the functional information of the camera stored in the storage unit 3.

次に、ステップS4において、処理部2は、ステップS3で取得したカメラの機能情報に基いて、接続されているカメラ100が魚眼カメラか否かを判定し、Yesの場合はステップS6に進み、Noの場合はステップS5に進む。 Next, in step S4, the processing unit 2 determines whether or not the connected camera 100 is a fisheye camera based on the function information of the camera acquired in step S3, and if Yes, proceeds to step S6. If No, the process proceeds to step S5.

ステップS5において、処理部2は、取得する撮影画像に対する画像処理について、補正無しを設定し、ステップS10に進む。 In step S5, the processing unit 2 sets no correction for the image processing for the captured image to be acquired, and proceeds to step S10.

ステップS6において、処理部2は、記憶部3に格納されたカメラの設置情報に基いて、カメラ100の設置位置が天井か側面かを判定し、天井であればステップS8に進み、側面であればステップS7に進む。 In step S6, the processing unit 2 determines whether the installation position of the camera 100 is the ceiling or the side surface based on the camera installation information stored in the storage unit 3, and if it is the ceiling, proceeds to step S8, and if it is the side surface. If so, the process proceeds to step S7.

ステップS7において、処理部2は、取得する魚眼画像に対する画像処理について、平面展開処理を設定し、ステップS10に進む。 In step S7, the processing unit 2 sets the plane expansion processing for the image processing for the fisheye image to be acquired, and proceeds to step S10.

ステップS8において、処理部2は、取得する魚眼画像に対する分割方法(例えば中央画像と2つの外周側画像への分割)について設定する。 In step S8, the processing unit 2 sets a division method (for example, division into a central image and two outer peripheral side images) for the fisheye image to be acquired.

次に、ステップS9において、処理部2は、分割位置設定処理を実行する。ここで、図7は、図6の第1の処理におけるステップS9の分割位置設定処理の詳細を示すフローチャートである。 Next, in step S9, the processing unit 2 executes the division position setting process. Here, FIG. 7 is a flowchart showing the details of the division position setting process in step S9 in the first process of FIG.

ステップS21において、処理部2は、分割位置が自動設定に設定されているか否かを判定し、Yesの場合はステップS22に進み、Noの場合はステップS25に進む。 In step S21, the processing unit 2 determines whether or not the division position is set to the automatic setting, and if Yes, proceeds to step S22, and if No, proceeds to step S25.

ステップS22において、処理部2は、設定値が指定されているか否かを判定し、Yesの場合はステップS24に進み、Noの場合はステップS23に進む。 In step S22, the processing unit 2 determines whether or not the set value is specified, and if Yes, the process proceeds to step S24, and if No, the process proceeds to step S23.

ステップS23において、処理部2は、分割位置を初期値(例えば外周側画像について2分割であれば水平方向)に設定し、処理を終了する。 In step S23, the processing unit 2 sets the division position to an initial value (for example, if the outer peripheral side image is divided into two, the horizontal direction), and ends the processing.

ステップS24において、処理部2は、分割位置を指定値(ユーザによって指定された値)に設定し、処理を終了する。 In step S24, the processing unit 2 sets the division position to a designated value (value specified by the user) and ends the processing.

ステップS25において、処理部2は、カメラ解像度、フレーム数などの各値を設定する。 In step S25, the processing unit 2 sets each value such as the camera resolution and the number of frames.

次に、ステップS26において、処理部2の取得部21は、カメラ100からの魚眼画像の取得を開始する。 Next, in step S26, the acquisition unit 21 of the processing unit 2 starts acquiring the fisheye image from the camera 100.

次に、ステップS27において、処理部2は、カウンタ値を「0」にセットする。 Next, in step S27, the processing unit 2 sets the counter value to “0”.

次に、処理部2は、カウンタ値が「3」か否かを判定し、Yesの場合はステップS23に進み、Noの場合はステップS29に進む。 Next, the processing unit 2 determines whether or not the counter value is "3", and if Yes, the process proceeds to step S23, and if No, the process proceeds to step S29.

ステップS29において、処理部2は、タイマ計測を開始する。次に、ステップS30において、処理部2は、魚眼画像中に移動物体(例えば人物の移動)があるか否かを判定し、Yesの場合はステップS31に進み、Noの場合はステップS32に進む。 In step S29, the processing unit 2 starts timer measurement. Next, in step S30, the processing unit 2 determines whether or not there is a moving object (for example, the movement of a person) in the fisheye image, and if Yes, the process proceeds to step S31, and if No, the process proceeds to step S32. move on.

ステップS31において、処理部2は、記憶部3に格納しているヒートマップ情報に反映する。 In step S31, the processing unit 2 reflects the heat map information stored in the storage unit 3.

ステップS32において、処理部2は、タイムアウト(所定値が経過)したか否かを判定し、Yesの場合はステップS33に進み、Noの場合はステップS30に戻る。 In step S32, the processing unit 2 determines whether or not a time-out (predetermined value has elapsed) has occurred, and if Yes, the process proceeds to step S33, and if No, the process returns to step S30.

ステップS33において、処理部2は、カウンタ値をインクリメント(1加算)する。次に、ステップS34において、処理部2は、ヒートマップ情報に赤い表示エリア(人物集中領域)があるか否かを判定し、Yesの場合はステップS35に進み、Noの場合はステップS28に戻る。 In step S33, the processing unit 2 increments (adds 1) the counter value. Next, in step S34, the processing unit 2 determines whether or not there is a red display area (person concentration area) in the heat map information, and if Yes, the process proceeds to step S35, and if No, the process returns to step S28. ..

ステップS35において、処理部2は、赤い表示エリア(人物集中領域)が複数か否かを判定し、Yesの場合はステップS37に進み、Noの場合はステップS36に進む。 In step S35, the processing unit 2 determines whether or not there are a plurality of red display areas (person concentration areas), and if Yes, the process proceeds to step S37, and if No, the process proceeds to step S36.

ステップS36において、処理部2は、赤い表示エリア(人物集中領域)が1つのときの設定手順にしたがって、分割位置を設定する。ここで、図8は、実施形態において、ヒートマップにおける人物集中領域が1つの場合の外周側画像の分割位置(画像中央の曲線部分の表記を省略。図9、図10も同様)の設定例の説明図である。 In step S36, the processing unit 2 sets the division position according to the setting procedure when there is one red display area (person concentration area). Here, FIG. 8 shows a setting example of the division position of the outer peripheral side image (the notation of the curved portion in the center of the image is omitted. The same applies to FIGS. 9 and 10) when there is one person concentration area in the heat map in the embodiment. It is explanatory drawing of.

図8(a)に示すように、ヒートマップにおける人物集中領域が領域H1であるものとする。その場合、例えば、図8(b)に示すように、領域H1の中心点P1と全体中心点Cとを結ぶ線L1と垂直になって全体中心点Cを通る線を、分割位置の線L2として設定する。 As shown in FIG. 8A, it is assumed that the person concentration area in the heat map is the area H1. In that case, for example, as shown in FIG. 8B, a line perpendicular to the line L1 connecting the center point P1 of the region H1 and the overall center point C and passing through the overall center point C is divided into lines L2. Set as.

図7に戻って、ステップS37において、処理部2は、赤い表示エリア(人物集中領域)が複数のときの設定手順にしたがって、分割位置を設定する。ここで、図9は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第1の設定例の説明図である。 Returning to FIG. 7, in step S37, the processing unit 2 sets the division position according to the setting procedure when there are a plurality of red display areas (person concentration areas). Here, FIG. 9 is an explanatory diagram of a first setting example of the division position of the outer peripheral side image when there are two person concentration areas in the heat map in the embodiment.

図9(a)に示すように、ヒートマップにおける人物集中領域が領域H2、H3の2つであるものとする。その場合、例えば、図9(b)に示すように、まず、領域H2の中心点P2と全体中心点Cとを結ぶ線を、線L3とする。また、領域H3の中心点P3と全体中心点Cとを結ぶ線を、線L4とする。そして、線L3と線L4の間の角が90度未満であるものとする。 As shown in FIG. 9A, it is assumed that there are two areas of concentration of people in the heat map, areas H2 and H3. In that case, for example, as shown in FIG. 9B, first, the line connecting the center point P2 of the region H2 and the overall center point C is defined as the line L3. Further, the line connecting the center point P3 of the region H3 and the overall center point C is defined as the line L4. Then, it is assumed that the angle between the line L3 and the line L4 is less than 90 degrees.

その場合、線L3と線L4の間の角を二等分する線を、線L5とする。そして、線L5と垂直になって全体中心点Cを通る線を、分割位置の線L6として設定する。このようにすることで、画像中の複数の人物の位置のバランスがよくなり、機械学習における人物の認識精度が向上する。 In that case, the line that bisects the angle between the lines L3 and L4 is defined as the line L5. Then, a line perpendicular to the line L5 and passing through the entire center point C is set as the line L6 at the division position. By doing so, the balance of the positions of a plurality of people in the image is improved, and the recognition accuracy of the person in machine learning is improved.

また、図10は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第2の設定例の説明図である。図10(a)に示すように、ヒートマップにおける人物集中領域が領域H4、H5の2つであるものとする。その場合、例えば、図10(b)に示すように、まず、領域H4の中心点P4と全体中心点Cとを結ぶ線を、線L7とする。また、領域H5の中心点P5と全体中心点Cとを結ぶ線を、線L8とする。そして、線L7と線L8の間の角が90度以上であるものとする。 Further, FIG. 10 is an explanatory diagram of a second setting example of the division position of the outer peripheral side image when there are two person concentration areas in the heat map in the embodiment. As shown in FIG. 10A, it is assumed that there are two areas of concentration of people in the heat map, areas H4 and H5. In that case, for example, as shown in FIG. 10B, first, the line connecting the center point P4 of the region H4 and the overall center point C is defined as the line L7. Further, the line connecting the center point P5 of the region H5 and the overall center point C is defined as the line L8. Then, it is assumed that the angle between the line L7 and the line L8 is 90 degrees or more.

その場合、線L7と線L8の間の角を二等分する線を、分割位置の線L9として設定する。このようにすることで、画像中の複数の人物の位置のバランスがよくなり、機械学習における人物の認識精度が向上する。 In that case, the line that bisects the angle between the lines L7 and L8 is set as the line L9 at the division position. By doing so, the balance of the positions of a plurality of people in the image is improved, and the recognition accuracy of the person in machine learning is improved.

次に、図11を参照して、実施形態の画像処理装置1による第2の処理について説明する。図11は、実施形態の画像処理装置による第2の処理を示すフローチャートである。この第2の処理は、推論処理である。 Next, the second processing by the image processing apparatus 1 of the embodiment will be described with reference to FIG. FIG. 11 is a flowchart showing a second process by the image processing apparatus of the embodiment. This second process is an inference process.

ステップS41において、取得部21は、魚眼レンズを備えるカメラ100によって撮影された魚眼画像を取得する。 In step S41, the acquisition unit 21 acquires a fisheye image taken by a camera 100 including a fisheye lens.

次に、ステップS42において、中央画像抽出部22は、魚眼画像から光軸中心を含む中央画像を抽出する(図3)。次に、ステップS43において、外周側画像抽出部23は、魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する(図4)。 Next, in step S42, the central image extraction unit 22 extracts a central image including the center of the optical axis from the fisheye image (FIG. 3). Next, in step S43, the outer peripheral side image extraction unit 23 extracts the outer peripheral side image existing on the outer peripheral side from the predetermined region including the center of the optical axis from the fisheye image (FIG. 4).

次に、ステップS44において、分割部24は、外周側画像を周方向に複数の分割画像に分割する(図4)。次に、ステップS45において、変換部25は、複数の分割画像それぞれを矩形の平面画像に変換する(図5(a))。 Next, in step S44, the dividing unit 24 divides the outer peripheral side image into a plurality of divided images in the circumferential direction (FIG. 4). Next, in step S45, the conversion unit 25 converts each of the plurality of divided images into a rectangular flat image (FIG. 5A).

次に、ステップS46において、合成部26は、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成する(図5(a))。 Next, in step S46, the compositing unit 26 joins a plurality of plane images to create a rectangular composite plane image (FIG. 5A).

次に、ステップS47において、第1の推論部27は、合成平面画像(図5(a))と第1の推論モデルに基づいて、合成平面画像に写っている物体を推論する。 Next, in step S47, the first inference unit 27 infers the object shown in the composite plane image based on the composite plane image (FIG. 5A) and the first inference model.

次に、ステップS48において、第2の推論部28は、中央画像(図5(b))と第2の推論モデルに基づいて、中央画像に写っている物体を推論する。なお、ステップS47とステップS48は、同時に実行してもよい。 Next, in step S48, the second inference unit 28 infers the object shown in the central image based on the central image (FIG. 5B) and the second inference model. In addition, step S47 and step S48 may be executed at the same time.

このようにして、実施形態の画像処理装置1によれば、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる。具体的には、魚眼画像を周方向に複数の分割画像に分割してから矩形の平面画像に変換し、さらに、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成し、その際に、合成平面画像の縦と横の長さがなるべく近くなるようにする。そして、その合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づくことで、合成平面画像に写っている物体を高精度で推論することができる。 In this way, according to the image processing apparatus 1 of the embodiment, the fisheye image can be used for machine learning with high recognition accuracy in consideration of the distortion in the image. Specifically, the fisheye image is divided into a plurality of divided images in the circumferential direction and then converted into a rectangular plane image, and further, the plurality of plane images are joined to create a rectangular composite plane image. In addition, the vertical and horizontal lengths of the composite plane image should be as close as possible. Then, based on the composite plane image and the first inference model learned by machine learning about the plane image, the object reflected in the composite plane image can be inferred with high accuracy.

また、魚眼画像を周方向に複数の分割画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、移動物体が多い領域ほど分割位置にならないようにすることで(図8〜図10)、合成平面画像(図5(a))において人物が端で切れてしまう可能性を低減し、機械学習における認識精度を向上させることができる。例えば、魚眼画像中に、建物等の出入口があってその部分を人物がよく通過する場合、人物がよく通過するその領域を避けて魚眼画像の分割位置を設定することができ、効果的である。 In addition, when dividing a fisheye image into a plurality of divided images in the circumferential direction, based on statistical information on moving objects in the past fisheye image, it is possible to prevent the division position from becoming a region with many moving objects. (FIGS. 8 to 10), the possibility that a person is cut off at an edge in a composite plane image (FIG. 5 (a)) can be reduced, and recognition accuracy in machine learning can be improved. For example, when there is an entrance / exit of a building or the like in a fisheye image and a person often passes through that part, it is possible to set the division position of the fisheye image while avoiding the area where the person often passes, which is effective. Is.

また、さらに具体的には、魚眼画像中の人物集中領域が2つのとき、例えば、魚眼画像の中心から当該2つの領域それぞれの中心までの直線同士のなす角度が90度未満の場合は、当該2つの領域が同じ側になるように、魚眼画像を、魚眼画像の中心を通る1本の線で周方向に分割すればよい。また、当該角度が90度以上の場合は、当該2つの領域が反対側になるように、魚眼画像を、魚眼画像の中心を通る1本の線で周方向に分割すればよい。そうすれば、画像中の複数の人物の位置のバランスがよくなり、機械学習における人物の認識精度が向上する。 More specifically, when there are two concentrated areas of people in the fisheye image, for example, when the angle between the straight lines from the center of the fisheye image to the center of each of the two areas is less than 90 degrees. The fisheye image may be divided in the circumferential direction by a single line passing through the center of the fisheye image so that the two regions are on the same side. When the angle is 90 degrees or more, the fisheye image may be divided in the circumferential direction by a single line passing through the center of the fisheye image so that the two regions are on opposite sides. By doing so, the positions of the plurality of people in the image are well-balanced, and the recognition accuracy of the people in machine learning is improved.

また、魚眼画像の分割に統計情報を使う際、ヒートマップ情報として使うことで、処理が簡潔で済む。 In addition, when statistical information is used to divide a fisheye image, the processing can be simplified by using it as heat map information.

また、魚眼画像について、別途、中央画像を抽出し、中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づくことで、魚眼画像の中央部分についての機械学習における人物の認識精度が向上する。 In addition, for the fisheye image, the central image is separately extracted, and the machine learning about the central part of the fisheye image is based on the central image and the second inference model learned by machine learning about the central image. The recognition accuracy of the person in is improved.

なお、画像処理装置1による上述の処理は、撮影対象領域を鉛直下向きに撮影するように設置されているカメラ100からの魚眼画像に対して特に効果的であるが、これに限定されない。例えば、撮影対象領域を水平方向に撮影するように設置されているカメラ100からの魚眼画像に対しても、本発明を適用することができる。カメラ100の向きに関係なく、魚眼画像における歪みは存在するからである。 The above-mentioned processing by the image processing apparatus 1 is particularly effective for a fisheye image from a camera 100 installed so as to photograph a photographing target area vertically downward, but the processing is not limited thereto. For example, the present invention can be applied to a fisheye image from a camera 100 installed so as to capture an image target area in the horizontal direction. This is because distortion exists in the fisheye image regardless of the orientation of the camera 100.

開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成および各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。 The disclosed technique is not limited to the above-described embodiment, and can be variously modified and implemented without departing from the spirit of the present embodiment. Each configuration and each process of the present embodiment can be selected as necessary, or may be combined as appropriate.

例えば、本実施形態では、画像処理装置1を1つのコンピュータ装置によって実現するものとして説明したが、これに限定されず、画像処理装置1を複数のコンピュータ装置によって実現してもよい。 For example, in the present embodiment, the image processing device 1 has been described as being realized by one computer device, but the present invention is not limited to this, and the image processing device 1 may be realized by a plurality of computer devices.

また、用いる機械学習は、ディープラーニングに限定されず、ディープラーニング以外であってもよい。 Further, the machine learning used is not limited to deep learning and may be other than deep learning.

また、本実施形態では、機械学習における学習と推論のうち、特に推論の場面について説明したが、これに限定されず、学習の場面にも本発明を適用することができる。 Further, in the present embodiment, the inference scene is particularly described among the learning and inference in machine learning, but the present invention is not limited to this, and the present invention can be applied to the learning scene as well.

また、図9、図10では、人物集中領域が2つの場合について説明したが、これに限定されず、人物集中領域が3つ以上の場合であっても、人物集中領域を集中度合いでランク分けすること等によって同様に対応することができる。 Further, in FIGS. 9 and 10, the case where the person concentration area is two has been described, but the present invention is not limited to this, and even if the person concentration area is three or more, the person concentration area is ranked according to the degree of concentration. It can be dealt with in the same way by doing so.

また、本実施形態では、魚眼画像から中央画像の抽出を行うものとしたが、これに限定されず、中央画像を抽出せず、魚眼画像を周方向に分割して機械学習に用いるようにしてもよい。 Further, in the present embodiment, the central image is extracted from the fisheye image, but the present invention is not limited to this, and the fisheye image is divided in the circumferential direction and used for machine learning without extracting the central image. It may be.

また、魚眼画像の周方向の分割は、2分割に限定されず、3つ以上への分割であってもよい。 Further, the division of the fisheye image in the circumferential direction is not limited to two divisions, and may be divided into three or more.

また、図4における領域R2、R3に含まれない中心の円領域の大きさは、魚眼画像の解像度やレンズの種類等によって、適宜、変更してもよい。 Further, the size of the central circular region not included in the regions R2 and R3 in FIG. 4 may be appropriately changed depending on the resolution of the fisheye image, the type of lens, and the like.

本発明は、例えば、監視カメラ、全天球カメラ等に適用することができる。 The present invention can be applied to, for example, surveillance cameras, spherical cameras, and the like.

1…画像処理装置、2…処理部、3…記憶部、4…入力部、5…表示部、6…通信部、21…取得部、22…中央画像抽出部、23…外周側画像抽出部、24…分割部、25…変換部、26…合成部、27…第1の推論部、28…第2の推論部、100…カメラ
1 ... Image processing device, 2 ... Processing unit, 3 ... Storage unit, 4 ... Input unit, 5 ... Display unit, 6 ... Communication unit, 21 ... Acquisition unit, 22 ... Central image extraction unit, 23 ... Outer peripheral side image extraction unit , 24 ... division part, 25 ... conversion part, 26 ... synthesis part, 27 ... first inference part, 28 ... second inference part, 100 ... camera

Claims (8)

魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、
前記魚眼画像を周方向に複数の分割画像に分割する分割部と、
複数の前記分割画像それぞれを矩形の平面画像に変換する変換部と、
複数の前記平面画像をつなぎ合わせて矩形の合成平面画像を作成する合成部と、
前記合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、前記合成平面画像に写っている物体を推論する第1の推論部と、を備える画像処理装置。
An acquisition unit that acquires a fisheye image taken by a shooting means equipped with a fisheye lens,
A division portion that divides the fisheye image into a plurality of divided images in the circumferential direction,
A conversion unit that converts each of the plurality of divided images into a rectangular flat image,
A compositing unit that creates a rectangular composite plane image by connecting a plurality of the plane images.
An image processing device including the composite plane image, a first inference model learned by machine learning about the plane image, and a first inference unit that infers an object appearing in the composite plane image based on the first inference model. ..
前記合成部は、複数の前記平面画像をつなぎ合わせて矩形の合成平面画像を作成する際に、前記合成平面画像の縦と横の長さの比が1:1に近づくように、複数の前記平面画像をつなぎ合わせて矩形の前記合成平面画像を作成する、請求項1に記載の画像処理装置。 When the composite plane image is joined together to create a rectangular composite plane image, the composite unit has a plurality of the above so that the ratio of the length to the width of the composite plane image approaches 1: 1. The image processing apparatus according to claim 1, wherein the composite plane image of a rectangle is created by joining the plane images. 前記分割部は、前記魚眼画像を周方向に複数の分割画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、前記魚眼画像を周方向に複数の分割画像に分割する、請求項1に記載の画像処理装置。 When the fisheye image is divided into a plurality of divided images in the circumferential direction, the divided portion does not become a divided position as much as a region having many moving objects based on statistical information about moving objects in the past fisheye image. The image processing apparatus according to claim 1, wherein the fisheye image is divided into a plurality of divided images in the circumferential direction. 前記分割部は、前記統計情報に基づいて、魚眼画像中の移動物体が多い2つの領域が分割位置にならないようにして、前記魚眼画像を周方向に2つの分割画像に分割する際に、
前記魚眼画像の中心から当該2つの領域それぞれの中心までの直線同士のなす角度が90度未満の場合は、当該2つの領域が同じ側になるように、前記魚眼画像を、前記魚眼画像の中心を通る1本の線で周方向に分割し、
当該角度が90度以上の場合は、当該2つの領域が反対側になるように、前記魚眼画像を、前記魚眼画像の中心を通る1本の線で周方向に分割する、請求項3に記載の画像処理装置。
Based on the statistical information, the divided portion is used to divide the fisheye image into two divided images in the circumferential direction so that the two regions having many moving objects in the fisheye image do not become the divided positions. ,
When the angle between the straight lines from the center of the fisheye image to the center of each of the two regions is less than 90 degrees, the fisheye image is displayed so that the two regions are on the same side. Divide in the circumferential direction by a single line passing through the center of the image
3. When the angle is 90 degrees or more, the fisheye image is divided in the circumferential direction by a single line passing through the center of the fisheye image so that the two regions are on opposite sides. The image processing apparatus according to.
前記分割部は、前記統計情報を元に魚眼画像中の領域を移動物体の出現頻度で分類した情報であるヒートマップ情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、前記魚眼画像を周方向に複数の分割画像に分割する、請求項3に記載の画像処理装置。 Based on the heat map information, which is information obtained by classifying the regions in the fisheye image according to the appearance frequency of moving objects based on the statistical information, the dividing portion is set so that the regions with more moving objects are not divided. The image processing apparatus according to claim 3, wherein the fisheye image is divided into a plurality of divided images in the circumferential direction. 前記画像処理装置は、
前記魚眼画像から光軸中心を含む中央画像を抽出する中央画像抽出部と、
前記中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、前記中央画像に写っている物体を推論する第2の推論部と、をさらに備える、請求項1に記載の画像処理装置。
The image processing device is
A central image extraction unit that extracts a central image including the center of the optical axis from the fisheye image,
Claim 1 further includes a second inference unit that infers an object appearing in the central image based on the central image, a second inference model learned by machine learning about the central image, and the like. The image processing apparatus according to.
前記取得部は、撮影対象領域を鉛直下向きに撮影するように設置されている前記撮影手段によって撮影された前記魚眼画像を取得する、請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the acquisition unit acquires the fisheye image taken by the shooting means installed so as to shoot the image target area vertically downward. コンピュータを、
魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、
前記魚眼画像を周方向に複数の分割画像に分割する分割部と、
複数の前記分割画像それぞれを矩形の平面画像に変換する変換部と、
複数の前記平面画像をつなぎ合わせて矩形の合成平面画像を作成する合成部と、
前記合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、前記合成平面画像に写っている物体を推論する第1の推論部と、して機能させるための画像処理プログラム。
Computer,
An acquisition unit that acquires a fisheye image taken by a shooting means equipped with a fisheye lens,
A division portion that divides the fisheye image into a plurality of divided images in the circumferential direction,
A conversion unit that converts each of the plurality of divided images into a rectangular flat image,
A compositing unit that creates a rectangular composite plane image by connecting a plurality of the plane images.
To function as a first inference unit that infers an object appearing in the composite plane image based on the composite plane image and a first inference model learned by machine learning about the plane image. Image processing program.
JP2019110437A 2019-06-13 2019-06-13 Image processing device and image processing program Expired - Fee Related JP6820489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019110437A JP6820489B2 (en) 2019-06-13 2019-06-13 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110437A JP6820489B2 (en) 2019-06-13 2019-06-13 Image processing device and image processing program

Publications (2)

Publication Number Publication Date
JP2020201879A true JP2020201879A (en) 2020-12-17
JP6820489B2 JP6820489B2 (en) 2021-01-27

Family

ID=73744188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110437A Expired - Fee Related JP6820489B2 (en) 2019-06-13 2019-06-13 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP6820489B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949408A (en) * 2021-02-02 2021-06-11 华电西藏能源有限公司 Real-time identification method and system for target fish passing through fish channel

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097766A (en) * 2016-12-16 2018-06-21 クラリオン株式会社 Image processing device and environment recognition device
JP2018142939A (en) * 2017-02-28 2018-09-13 キヤノン株式会社 Imaging device, imaging system, method for controlling the same, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097766A (en) * 2016-12-16 2018-06-21 クラリオン株式会社 Image processing device and environment recognition device
JP2018142939A (en) * 2017-02-28 2018-09-13 キヤノン株式会社 Imaging device, imaging system, method for controlling the same, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
末松 良一: "中心窩を有する新しい視覚センサの開発", 計測自動制御学会論文集 第31巻 第10号, vol. 第31巻 第10号, JPN6020034200, 31 October 1995 (1995-10-31), JP, pages 1556 - 1563, ISSN: 0004343427 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949408A (en) * 2021-02-02 2021-06-11 华电西藏能源有限公司 Real-time identification method and system for target fish passing through fish channel
CN112949408B (en) * 2021-02-02 2022-10-21 中国水利水电科学研究院 Real-time identification method and system for target fish passing through fish channel

Also Published As

Publication number Publication date
JP6820489B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
US11551338B2 (en) Intelligent mixing and replacing of persons in group portraits
US12033082B2 (en) Maintaining fixed sizes for target objects in frames
US9317762B2 (en) Face recognition using depth based tracking
US10559062B2 (en) Method for automatic facial impression transformation, recording medium and device for performing the method
CN110210276A (en) A kind of motion track acquisition methods and its equipment, storage medium, terminal
US9262696B2 (en) Image capture feedback
CN109978754A (en) Image processing method, device, storage medium and electronic equipment
US9324374B2 (en) Method and system for automatic generation of clips from a plurality of images based on an inter-objects relationship score
CN105659592A (en) Camera system for three-dimensional video
DE112019001257T5 (en) VIDEO STABILIZATION TO REDUCE CAMERA AND FACE MOVEMENT
JP2007280043A (en) Video monitoring and search system
WO2023011013A1 (en) Splicing seam search method and apparatus for video image, and video image splicing method and apparatus
CN103534726A (en) Positional sensor-assisted image registration for panoramic photography
JP2009230703A (en) Object detection method, object detection device, and object detection program
KR102248706B1 (en) System for intergrated education management based on intelligent image analysis technology and method thereof
JP6875646B2 (en) Image processing device and image processing program
US20170054904A1 (en) Video generating system and method thereof
JP6820489B2 (en) Image processing device and image processing program
CN110519509A (en) Composition evaluation method, method for imaging, device, electronic equipment, storage medium
KR20070102360A (en) Method for extracting subject and image synthesizing in moving picture
WO2023149135A1 (en) Image processing device, image processing method, and program
JP2005157134A (en) Information output method, device and program, and computer readable storage medium stored with information output program
JP2009251892A (en) Object detection method, object detection device, and object detection program
JP5539565B2 (en) Imaging apparatus and subject tracking method
CN115623313A (en) Image processing method, image processing apparatus, electronic device, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6820489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees