JP2020201879A - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP2020201879A JP2020201879A JP2019110437A JP2019110437A JP2020201879A JP 2020201879 A JP2020201879 A JP 2020201879A JP 2019110437 A JP2019110437 A JP 2019110437A JP 2019110437 A JP2019110437 A JP 2019110437A JP 2020201879 A JP2020201879 A JP 2020201879A
- Authority
- JP
- Japan
- Prior art keywords
- image
- fisheye
- divided
- unit
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 87
- 239000002131 composite material Substances 0.000 claims abstract description 45
- 238000010801 machine learning Methods 0.000 claims abstract description 35
- 238000006243 chemical reaction Methods 0.000 claims abstract description 11
- 238000000605 extraction Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000013459 approach Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 239000000203 mixture Substances 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 36
- 230000002093 peripheral effect Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 13
- 238000013135 deep learning Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置、および、画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.
近年、撮影画像を用いた機械学習(推論を含む。)の研究開発が盛んに行われている。また、従来から、一般的な撮影画像のほかに、魚眼レンズを使って広範囲を撮影した画像である魚眼画像がある。魚眼画像を機械学習に用いることができれば、様々な点で有益である。 In recent years, research and development of machine learning (including inference) using captured images has been actively carried out. Further, conventionally, in addition to a general captured image, there is a fisheye image which is an image captured in a wide range using a fisheye lens. It would be beneficial in many ways if fisheye images could be used for machine learning.
しかしながら、魚眼画像は、画像中の位置によって被写体が異なる歪み方をしているので、機械学習に高い認識精度で用いるのは容易ではない。 However, since the subject of the fisheye image is distorted differently depending on the position in the image, it is not easy to use it for machine learning with high recognition accuracy.
そこで、本発明は、上記事情に鑑みてなされたものであり、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる画像処理装置、および、画像処理プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above circumstances, and an image processing device and an image processing program capable of using a fish-eye image for machine learning with high recognition accuracy in consideration of distortion in an image are provided. The purpose is to provide.
本発明の第1態様に係る画像処理装置は、魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、前記魚眼画像を周方向に複数の分割画像に分割する分割部と、複数の前記分割画像それぞれを矩形の平面画像に変換する変換部と、複数の前記平面画像をつなぎ合わせて矩形の合成平面画像を作成する合成部と、前記合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、前記合成平面画像に写っている物体を推論する第1の推論部と、を備える。 The image processing apparatus according to the first aspect of the present invention includes an acquisition unit that acquires a fisheye image captured by an imaging means including a fisheye lens, and a division unit that divides the fisheye image into a plurality of divided images in the circumferential direction. , A conversion unit that converts each of the plurality of divided images into a rectangular plane image, a composition unit that connects the plurality of the plane images to create a rectangular composite plane image, and a machine related to the composite plane image and the plane image. It includes a first inference model that has been learned by learning, and a first inference unit that infers an object in the composite plane image based on the first inference model.
また、画像処理装置において、例えば、前記合成部は、複数の前記平面画像をつなぎ合わせて矩形の前記合成平面画像を作成する際に、前記合成平面画像の縦と横の長さの比が1:1に近づくように、複数の前記平面画像をつなぎ合わせて矩形の前記合成平面画像を作成する。 Further, in the image processing apparatus, for example, when the compositing unit joins a plurality of the plane images to create a rectangular composite plane image, the ratio of the length to the width of the composite plane image is 1. A rectangular composite plane image is created by joining a plurality of the plane images so as to approach 1: 1.
また、画像処理装置において、例えば、前記分割部は、前記魚眼画像を周方向に複数の分割画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、前記魚眼画像を周方向に複数の分割画像に分割する。 Further, in the image processing apparatus, for example, when the fisheye image is divided into a plurality of divided images in the circumferential direction, the divided portion is based on statistical information about the moving object in the past fisheye image. The fisheye image is divided into a plurality of divided images in the circumferential direction so that the divided positions are not as large as the region.
また、画像処理装置において、例えば、前記分割部は、前記統計情報に基づいて、魚眼画像中の移動物体が多い2つの領域が分割位置にならないようにして、前記魚眼画像を周方向に2つの分割画像に分割する際に、前記魚眼画像の中心から当該2つの領域それぞれの中心までの直線同士のなす角度が90度未満の場合は、当該2つの領域が同じ側になるように、前記魚眼画像を、前記魚眼画像の中心を通る1本の線で周方向に分割し、当該角度が90度以上の場合は、当該2つの領域が反対側になるように、前記魚眼画像を、前記魚眼画像の中心を通る1本の線で周方向に分割する。 Further, in the image processing apparatus, for example, based on the statistical information, the divided portion sets the fish-eye image in the circumferential direction by preventing the two regions in the fish-eye image having many moving objects from becoming divided positions. When dividing into two divided images, if the angle between the straight lines from the center of the fisheye image to the center of each of the two regions is less than 90 degrees, the two regions should be on the same side. The fish-eye image is divided in the circumferential direction by a single line passing through the center of the fish-eye image, and when the angle is 90 degrees or more, the fish so that the two regions are on opposite sides. The eye image is divided in the circumferential direction by a single line passing through the center of the fisheye image.
また、画像処理装置において、例えば、前記分割部は、前記統計情報を元に魚眼画像中の領域を移動物体の出現頻度で分類した情報であるヒートマップ情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、前記魚眼画像を周方向に複数の分割画像に分割する。 Further, in the image processing apparatus, for example, the divided portion is a region having many moving objects based on heat map information which is information obtained by classifying the regions in the fisheye image according to the appearance frequency of the moving objects based on the statistical information. The fish-eye image is divided into a plurality of divided images in the circumferential direction so that the divided positions are not so large.
また、画像処理装置において、例えば、前記画像処理装置は、前記魚眼画像から光軸中心を含む中央画像を抽出する中央画像抽出部と、前記中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、前記中央画像に写っている物体を推論する第2の推論部と、をさらに備える。 Further, in the image processing device, for example, the image processing device has been learned by a central image extraction unit that extracts a central image including the center of the optical axis from the fisheye image, the central image, and machine learning about the central image. A second inference model and a second inference unit that infers the object shown in the central image based on the second inference model are further provided.
また、画像処理装置において、例えば、前記取得部は、撮影対象領域を鉛直下向きに撮影するように設置されている前記撮影手段によって撮影された前記魚眼画像を取得する。 Further, in the image processing device, for example, the acquisition unit acquires the fisheye image photographed by the photographing means installed so as to photograph the area to be photographed vertically downward.
本発明の第2態様に係る画像処理プログラムは、コンピュータを、魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、前記魚眼画像を周方向に複数の分割画像に分割する分割部と、複数の前記分割画像それぞれを矩形の平面画像に変換する変換部と、複数の前記平面画像をつなぎ合わせて矩形の合成平面画像を作成する合成部と、前記合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、前記合成平面画像に写っている物体を推論する第1の推論部と、して機能させる。 The image processing program according to the second aspect of the present invention divides the computer into a acquisition unit for acquiring a fisheye image captured by an imaging means provided with a fisheye lens, and the fisheye image into a plurality of divided images in the circumferential direction. A division unit, a conversion unit that converts each of the plurality of divided images into a rectangular plane image, a composition unit that connects the plurality of the plane images to create a rectangular composite plane image, the composite plane image, and a plane. It functions as a first inference model that has been learned by machine learning about an image, and as a first inference unit that infers an object appearing in the composite plane image based on the first inference model.
本発明の上記第1態様、上記第2態様によれば、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる。 According to the first aspect and the second aspect of the present invention, the fisheye image can be used for machine learning with high recognition accuracy in consideration of the distortion in the image.
以下、添付図面を参照して、画像処理装置、および、画像処理プログラムの実施形態について詳細に説明する。 Hereinafter, an image processing apparatus and an embodiment of an image processing program will be described in detail with reference to the accompanying drawings.
図1は、実施形態の画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、撮影画像を用いた機械学習(推論を含む。)を実行するコンピュータ装置である。この機械学習では、例えば、カメラにより得られた撮影画像に対して画像処理を行って、画像中の人物や顔を検出することで学習を行う。また、機械学習としては、例えば、ディープラーニング(深層学習)を用いる。 FIG. 1 is a block diagram showing a functional configuration of the image processing device 1 of the embodiment. The image processing device 1 is a computer device that executes machine learning (including inference) using captured images. In this machine learning, for example, image processing is performed on a captured image obtained by a camera, and learning is performed by detecting a person or a face in the image. Further, as machine learning, for example, deep learning (deep learning) is used.
ディープラーニングは、多層構造のニューラルネットワークを用いた機械学習であり、多くの分野で有効性が確認されている。例えば、ディープラーニングは、画像・音声の認識において人間に匹敵するほど高い認識精度を実現している。 Deep learning is machine learning using a multi-layered neural network, and its effectiveness has been confirmed in many fields. For example, deep learning has achieved high recognition accuracy comparable to humans in image / voice recognition.
ディープラーニングでは、識別対象に関する教師データを用いた学習(教師あり学習)を行うことにより、ニューラルネットワークに自動的に識別対象の特徴を学習する。そして、ディープラーニングでは、特徴を学習したニューラルネットワークを用いて識別対象を識別(推論)する。 In deep learning, the characteristics of the identification target are automatically learned in the neural network by performing learning (supervised learning) using the teacher data regarding the identification target. Then, in deep learning, the identification target is identified (inferred) using a neural network that has learned the features.
例えば、推論処理として画像における人物検出を例にとると、ディープラーニングでは、人物全体が写った大量の画像を学習用の画像として教師あり学習を行うことにより、画像に写った人物全体の特徴をニューラルネットワークに自動的に学習する。あるいは、推論処理として画像における顔検出を例にとると、ディープラーニングでは、人物の顔が写った大量の画像を学習用の画像として教師あり学習を行うことにより、画像に写った人物の顔の特徴をニューラルネットワークに自動的に学習する。 For example, taking the detection of a person in an image as an inference process, in deep learning, a large number of images of the entire person are used as learning images for supervised learning to obtain the characteristics of the entire person in the image. Automatically learn from neural networks. Alternatively, taking face detection in an image as an example of inference processing, in deep learning, a large number of images showing a person's face are used as learning images for supervised learning, so that the face of the person in the image is captured. The features are automatically learned from the neural network.
ディープラーニングでは、このように特徴を学習したニューラルネットワークを用いることで、画像に写った識別対象を識別することなどの推論処理が可能な学習済みの推論モデルを生成できる。 In deep learning, by using a neural network whose features have been learned in this way, it is possible to generate a trained inference model capable of inference processing such as identifying an identification target in an image.
このようなディープラーニングなどの機械学習に、魚眼レンズを使って広範囲を撮影した画像である魚眼画像を用いることができれば、様々な点で有益である。しかし、魚眼画像は、画像中の位置によって被写体が異なる歪み方をしているので、機械学習に高い認識精度で用いるのは容易ではない。なお、以下では、特に、撮影対象領域を鉛直下向きに撮影するように設置されている魚眼カメラ(以下、単に「カメラ」とも称する。)によって撮影された魚眼画像を例にとって説明する。 It would be beneficial in various respects if a fisheye image, which is an image taken over a wide area using a fisheye lens, could be used for machine learning such as deep learning. However, since the subject of the fisheye image is distorted differently depending on the position in the image, it is not easy to use it for machine learning with high recognition accuracy. In the following, a fisheye image taken by a fisheye camera (hereinafter, also simply referred to as “camera”) installed so as to shoot a shooting target area vertically downward will be described as an example.
そのような魚眼画像では、画像中の位置によって被写体の歪み方(映る角度、大きさ)が異なり、したがって認識する特徴も異なるため、認識精度に誤差が生じてしまう。また、この魚眼画像を平面展開すると画像中心に近いほど被写体が大きく引き伸ばされてしまい、認識精度にさらに誤差が生じてしまう。そこで、以下では、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる技術について説明する。 In such a fisheye image, the distortion method (projection angle, size) of the subject differs depending on the position in the image, and therefore the recognition characteristics also differ, so that an error occurs in the recognition accuracy. Further, when this fisheye image is expanded in a plane, the subject is greatly stretched as it is closer to the center of the image, which further causes an error in recognition accuracy. Therefore, in the following, a technique capable of using a fisheye image for machine learning with high recognition accuracy in consideration of distortion in the image will be described.
図1に示すように、画像処理装置1は、処理部2、記憶部3、入力部4、表示部5、および、通信部6を備える。
As shown in FIG. 1, the image processing device 1 includes a
処理部2は、例えばCPU(Central Processing Unit)によって構成され、記憶部3に記憶された画像処理プログラムを実行することで実現される機能構成として、取得部21、中央画像抽出部22、外周側画像抽出部23、分割部24、変換部25、合成部26、第1の推論部27、および、第2の推論部28を備える。なお、以下において、処理部2における各部21〜28以外の処理については、動作主体を「処理部2」と表記する。
The
取得部21は、魚眼レンズを備えるカメラ100(撮影手段)によって撮影された魚眼画像を取得し、記憶部3に格納する。 The acquisition unit 21 acquires a fisheye image captured by a camera 100 (photographing means) provided with a fisheye lens and stores it in the storage unit 3.
中央画像抽出部22は、魚眼画像から光軸中心を含む中央画像(例えば矩形の中央画像)を抽出する。外周側画像抽出部23は、魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する。
The central
分割部24は、外周側画像を周方向に複数の分割画像に分割する。例えば、分割部24は、外周側画像を周方向に複数の分割画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、外周側画像を周方向に複数の分割画像に分割する。 The dividing unit 24 divides the outer peripheral side image into a plurality of divided images in the circumferential direction. For example, when the outer peripheral side image is divided into a plurality of divided images in the circumferential direction, the division unit 24 does not have a divided position as much as a region having many moving objects based on statistical information about moving objects in the past fisheye image. In this way, the outer peripheral side image is divided into a plurality of divided images in the circumferential direction.
また、例えば、分割部24は、統計情報に基づいて、魚眼画像中の移動物体が多い2つの領域が分割位置にならないようにして、外周側画像を周方向に2つの分割画像に分割する際に、魚眼画像の中心から当該2つの領域それぞれの中心までの直線同士のなす角度が90度未満の場合は、当該2つの領域が同じ側になるように、外周側画像を、魚眼画像の中心を通る1本の線で周方向に分割する。また、分割部24は、当該角度が90度以上の場合は、当該2つの領域が反対側になるように、外周側画像を、魚眼画像の中心を通る1本の線で周方向に分割する。 Further, for example, the division unit 24 divides the outer peripheral side image into two divided images in the circumferential direction based on the statistical information so that the two regions having many moving objects in the fisheye image do not become the divided positions. At that time, if the angle between the straight lines from the center of the fish-eye image to the center of each of the two regions is less than 90 degrees, the outer peripheral side image is displayed as a fish-eye so that the two regions are on the same side. It is divided in the circumferential direction by a single line passing through the center of the image. Further, when the angle is 90 degrees or more, the dividing portion 24 divides the outer peripheral side image in the circumferential direction by a single line passing through the center of the fisheye image so that the two regions are on opposite sides. To do.
また、例えば、分割部24は、統計情報を元に魚眼画像中の領域を移動物体の出現頻度で分類した情報であるヒートマップ情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、外周側画像を周方向に複数の分割画像に分割する。 Further, for example, the division unit 24 does not have a division position as much as a region having many moving objects, based on heat map information which is information obtained by classifying the regions in the fisheye image based on the appearance frequency of moving objects based on statistical information. Then, the outer peripheral side image is divided into a plurality of divided images in the circumferential direction.
変換部25は、複数の分割画像それぞれを矩形の平面画像に変換する。合成部26は、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成する際に、合成平面画像の縦と横の長さの比が1:1に近づくように(つまり、複数のつなぎ合わせ方のうち、縦と横の長さの比が1:1に一番近いつなぎ合わせ方で)、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成する。
The
第1の推論部27は、合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、合成平面画像に写っている物体を推論する。 The first inference unit 27 infers an object appearing in the composite plane image based on the composite plane image and the first inference model learned by machine learning about the plane image.
第2の推論部28は、中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、中央画像に写っている物体を推論する。各部21〜28の処理の詳細については、図2以降を用いて後述する。 The second inference unit 28 infers the object shown in the central image based on the central image and the second inference model learned by machine learning about the central image. Details of the processing of each part 21 to 28 will be described later with reference to FIGS. 2 and 2.
記憶部3は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などから構成される。 The storage unit 3 is composed of semiconductor memory elements such as RAM (Random Access Memory), ROM (Read Only Memory), and flash memory (Flash Memory), HDD (Hard Disk Drive), and the like.
記憶部3は、例えば、統計情報、ヒートマップ情報、第1の推論モデル、第2の推論モデル等を記憶する。統計情報は、上述のように、過去の魚眼画像中の移動物体に関する統計情報である。ヒートマップ情報は、統計情報を元に魚眼画像中の領域を移動物体の出現頻度で分類した情報である。 The storage unit 3 stores, for example, statistical information, heat map information, a first inference model, a second inference model, and the like. As described above, the statistical information is statistical information regarding moving objects in past fisheye images. The heat map information is information in which regions in the fisheye image are classified according to the appearance frequency of moving objects based on statistical information.
第1の推論モデルは、平面画像に関する機械学習によって学習済みの推論モデルである。第2の推論モデルは、中央画像に関する機械学習によって学習済みの推論モデルである。つまり、画像処理装置1では、魚眼画像において画像中の位置によって被写体が異なる歪み方をしていることを考慮して、外周側画像を変換した平面画像に関する第1の推論モデルと、中央画像に関する第2の推論モデルと、を別々に用意する。これにより、高精度の物体認識が可能となる。 The first inference model is an inference model that has been learned by machine learning about a plane image. The second inference model is an inference model trained by machine learning on the central image. That is, in the image processing device 1, the first inference model for the plane image obtained by converting the outer peripheral side image and the central image are taken into consideration that the subject is distorted differently depending on the position in the image in the fisheye image. A second inference model for is prepared separately. This enables highly accurate object recognition.
入力部4は、ユーザが各種情報を入力するための手段であり、例えば、キーボード、マウス、タッチパネル等によって構成される。 The input unit 4 is a means for the user to input various information, and is composed of, for example, a keyboard, a mouse, a touch panel, and the like.
表示部5は、各種情報を表示するための手段であり、例えば、液晶ディスプレイやタッチパネル等によって構成される。 The display unit 5 is a means for displaying various information, and is composed of, for example, a liquid crystal display, a touch panel, or the like.
通信部6は、カメラ100等の外部装置と通信するための手段であり、例えば、通信インタフェース等によって構成される。 The communication unit 6 is a means for communicating with an external device such as a camera 100, and is composed of, for example, a communication interface or the like.
図2は、実施形態の魚眼画像例の模式図である。図2における魚眼画像F1は、カメラ100によって撮影対象領域を鉛直下向きに撮影して得られた画像である。魚眼画像F1では、画像中の位置によって人物の映る角度や大きさが異なっている。具体的には、画像の中心に近いほど人物は頭頂部方向から撮影されたように、かつ、大きく写り、また、画像の中心から遠いほど人物は水平方向から撮影されたように、かつ、小さく写っている。 FIG. 2 is a schematic view of an example of a fisheye image of the embodiment. The fisheye image F1 in FIG. 2 is an image obtained by photographing the image target area vertically downward with the camera 100. In the fisheye image F1, the angle and size of a person appearing differ depending on the position in the image. Specifically, the closer to the center of the image, the larger the person appears to be taken from the top of the head, and the farther from the center of the image, the smaller the person appears to be taken from the horizontal direction. It is reflected.
ここで、図3は、実施形態の魚眼画像例における中央画像の抽出領域を示す図である。図3の魚眼画像F1において、領域R1は中央画像に対応する領域である。つまり、中央画像抽出部22は、魚眼画像F1から領域R1に対応する画像を中央画像として抽出する。
Here, FIG. 3 is a diagram showing an extraction region of the central image in the fisheye image example of the embodiment. In the fisheye image F1 of FIG. 3, the region R1 is a region corresponding to the central image. That is, the central
また、図4は、実施形態の魚眼画像例における外周側画像の抽出領域を示す図である。図4の魚眼画像F1において、領域R2と領域R3を合わせた領域(以下、領域R23と称する。)は、外周側画像に対応する領域である。つまり、外周側画像抽出部23は、魚眼画像F1から領域R23に対応する画像を外周側画像として抽出する。なお、魚眼画像F1から、領域R1に内接する中心円(全体の中心点を中心とする円)を除いた領域が、領域R23である。 Further, FIG. 4 is a diagram showing an extraction region of the outer peripheral side image in the fisheye image example of the embodiment. In the fisheye image F1 of FIG. 4, the region in which the region R2 and the region R3 are combined (hereinafter, referred to as the region R23) is a region corresponding to the outer peripheral side image. That is, the outer peripheral side image extraction unit 23 extracts the image corresponding to the region R23 from the fisheye image F1 as the outer peripheral side image. The region R23 is the region excluding the central circle (a circle centered on the entire center point) inscribed in the region R1 from the fisheye image F1.
また、分割部24は、例えば、領域R23に対応する外周側画像を周方向に2つの分割画像(領域R2に対応する分割画像と領域R3に対応する分割画像)に分割する。 Further, the dividing unit 24 divides, for example, the outer peripheral side image corresponding to the area R23 into two divided images in the circumferential direction (a divided image corresponding to the area R2 and a divided image corresponding to the area R3).
また、図5は、実施形態において、外周側画像に基づいて作成した合成平面画像((a))と、抽出された中央画像((b))と、を示す図である。図5(a)において、領域R3aの画像は、図4の領域R3の分割画像に対応する平面画像である。つまり、変換部25は、図4の領域R3の分割画像を平面展開することで、図5(a)の領域R3aの矩形の平面画像に変換する。
Further, FIG. 5 is a diagram showing a composite plane image ((a)) created based on the outer peripheral side image and an extracted central image ((b)) in the embodiment. In FIG. 5A, the image of the region R3a is a plane image corresponding to the divided image of the region R3 of FIG. That is, the
また、図5(a)において、領域R2aの画像は、図4の領域R2の分割画像に対応する平面画像である。つまり、変換部25は、図4の領域R2の分割画像を平面展開することで、図5(a)の領域R2aの矩形の平面画像に変換する。
Further, in FIG. 5A, the image of the region R2a is a plane image corresponding to the divided image of the region R2 of FIG. That is, the
また、合成部26は、領域R2aの平面画像と領域R3aの平面画像をつなぎ合わせて矩形の合成平面画像を作成する。その際、合成部26は、合成平面画像の縦と横の長さの比が1:1に近づくように、合成平面画像を作成する。そうすることで、合成平面画像を機械学習に用いたときの人物の認識精度が高くなる。第1の推論部27は、図5(a)の合成平面画像と第1の推論モデルに基づいて、合成平面画像に写っている物体を推論する。 Further, the compositing unit 26 creates a rectangular composite plane image by connecting the plane image of the region R2a and the plane image of the region R3a. At that time, the composite unit 26 creates the composite plane image so that the ratio of the length to the width of the composite plane image approaches 1: 1. By doing so, the recognition accuracy of the person when the composite plane image is used for machine learning is improved. The first inference unit 27 infers the object shown in the composite plane image based on the composite plane image of FIG. 5A and the first inference model.
また、図5(b)において、領域R1の中央画像は、図3の領域R1の中央画像と同じである。そして、第2の推論部28は、図5(b)の中央画像と第2の推論モデルに基づいて、中央画像に写っている物体を推論する。 Further, in FIG. 5B, the central image of the region R1 is the same as the central image of the region R1 of FIG. Then, the second inference unit 28 infers the object shown in the central image based on the central image and the second inference model of FIG. 5 (b).
次に、図6を参照して、実施形態の画像処理装置1による第1の処理について説明する。図6は、実施形態の画像処理装置1による第1の処理を示すフローチャートである。この第1の処理は、推論処理を行う前の前処理である。 Next, with reference to FIG. 6, the first processing by the image processing apparatus 1 of the embodiment will be described. FIG. 6 is a flowchart showing a first process by the image processing device 1 of the embodiment. This first process is a preprocess before performing the inference process.
ステップS1において、処理部2は、記憶部3に格納されている画像処理アプリケーションを起動する。
In step S1, the
次に、ステップS2において、処理部2は、カメラ100と接続されているか否かを判定し、Yesの場合はステップS3に進み、Noの場合は処理を終了する。
Next, in step S2, the
ステップS3において、処理部2は、記憶部3に格納されているカメラの機能情報を取得する。
In step S3, the
次に、ステップS4において、処理部2は、ステップS3で取得したカメラの機能情報に基いて、接続されているカメラ100が魚眼カメラか否かを判定し、Yesの場合はステップS6に進み、Noの場合はステップS5に進む。
Next, in step S4, the
ステップS5において、処理部2は、取得する撮影画像に対する画像処理について、補正無しを設定し、ステップS10に進む。
In step S5, the
ステップS6において、処理部2は、記憶部3に格納されたカメラの設置情報に基いて、カメラ100の設置位置が天井か側面かを判定し、天井であればステップS8に進み、側面であればステップS7に進む。
In step S6, the
ステップS7において、処理部2は、取得する魚眼画像に対する画像処理について、平面展開処理を設定し、ステップS10に進む。
In step S7, the
ステップS8において、処理部2は、取得する魚眼画像に対する分割方法(例えば中央画像と2つの外周側画像への分割)について設定する。
In step S8, the
次に、ステップS9において、処理部2は、分割位置設定処理を実行する。ここで、図7は、図6の第1の処理におけるステップS9の分割位置設定処理の詳細を示すフローチャートである。
Next, in step S9, the
ステップS21において、処理部2は、分割位置が自動設定に設定されているか否かを判定し、Yesの場合はステップS22に進み、Noの場合はステップS25に進む。
In step S21, the
ステップS22において、処理部2は、設定値が指定されているか否かを判定し、Yesの場合はステップS24に進み、Noの場合はステップS23に進む。
In step S22, the
ステップS23において、処理部2は、分割位置を初期値(例えば外周側画像について2分割であれば水平方向)に設定し、処理を終了する。
In step S23, the
ステップS24において、処理部2は、分割位置を指定値(ユーザによって指定された値)に設定し、処理を終了する。
In step S24, the
ステップS25において、処理部2は、カメラ解像度、フレーム数などの各値を設定する。
In step S25, the
次に、ステップS26において、処理部2の取得部21は、カメラ100からの魚眼画像の取得を開始する。
Next, in step S26, the acquisition unit 21 of the
次に、ステップS27において、処理部2は、カウンタ値を「0」にセットする。
Next, in step S27, the
次に、処理部2は、カウンタ値が「3」か否かを判定し、Yesの場合はステップS23に進み、Noの場合はステップS29に進む。
Next, the
ステップS29において、処理部2は、タイマ計測を開始する。次に、ステップS30において、処理部2は、魚眼画像中に移動物体(例えば人物の移動)があるか否かを判定し、Yesの場合はステップS31に進み、Noの場合はステップS32に進む。
In step S29, the
ステップS31において、処理部2は、記憶部3に格納しているヒートマップ情報に反映する。
In step S31, the
ステップS32において、処理部2は、タイムアウト(所定値が経過)したか否かを判定し、Yesの場合はステップS33に進み、Noの場合はステップS30に戻る。
In step S32, the
ステップS33において、処理部2は、カウンタ値をインクリメント(1加算)する。次に、ステップS34において、処理部2は、ヒートマップ情報に赤い表示エリア(人物集中領域)があるか否かを判定し、Yesの場合はステップS35に進み、Noの場合はステップS28に戻る。
In step S33, the
ステップS35において、処理部2は、赤い表示エリア(人物集中領域)が複数か否かを判定し、Yesの場合はステップS37に進み、Noの場合はステップS36に進む。
In step S35, the
ステップS36において、処理部2は、赤い表示エリア(人物集中領域)が1つのときの設定手順にしたがって、分割位置を設定する。ここで、図8は、実施形態において、ヒートマップにおける人物集中領域が1つの場合の外周側画像の分割位置(画像中央の曲線部分の表記を省略。図9、図10も同様)の設定例の説明図である。
In step S36, the
図8(a)に示すように、ヒートマップにおける人物集中領域が領域H1であるものとする。その場合、例えば、図8(b)に示すように、領域H1の中心点P1と全体中心点Cとを結ぶ線L1と垂直になって全体中心点Cを通る線を、分割位置の線L2として設定する。 As shown in FIG. 8A, it is assumed that the person concentration area in the heat map is the area H1. In that case, for example, as shown in FIG. 8B, a line perpendicular to the line L1 connecting the center point P1 of the region H1 and the overall center point C and passing through the overall center point C is divided into lines L2. Set as.
図7に戻って、ステップS37において、処理部2は、赤い表示エリア(人物集中領域)が複数のときの設定手順にしたがって、分割位置を設定する。ここで、図9は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第1の設定例の説明図である。
Returning to FIG. 7, in step S37, the
図9(a)に示すように、ヒートマップにおける人物集中領域が領域H2、H3の2つであるものとする。その場合、例えば、図9(b)に示すように、まず、領域H2の中心点P2と全体中心点Cとを結ぶ線を、線L3とする。また、領域H3の中心点P3と全体中心点Cとを結ぶ線を、線L4とする。そして、線L3と線L4の間の角が90度未満であるものとする。 As shown in FIG. 9A, it is assumed that there are two areas of concentration of people in the heat map, areas H2 and H3. In that case, for example, as shown in FIG. 9B, first, the line connecting the center point P2 of the region H2 and the overall center point C is defined as the line L3. Further, the line connecting the center point P3 of the region H3 and the overall center point C is defined as the line L4. Then, it is assumed that the angle between the line L3 and the line L4 is less than 90 degrees.
その場合、線L3と線L4の間の角を二等分する線を、線L5とする。そして、線L5と垂直になって全体中心点Cを通る線を、分割位置の線L6として設定する。このようにすることで、画像中の複数の人物の位置のバランスがよくなり、機械学習における人物の認識精度が向上する。 In that case, the line that bisects the angle between the lines L3 and L4 is defined as the line L5. Then, a line perpendicular to the line L5 and passing through the entire center point C is set as the line L6 at the division position. By doing so, the balance of the positions of a plurality of people in the image is improved, and the recognition accuracy of the person in machine learning is improved.
また、図10は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第2の設定例の説明図である。図10(a)に示すように、ヒートマップにおける人物集中領域が領域H4、H5の2つであるものとする。その場合、例えば、図10(b)に示すように、まず、領域H4の中心点P4と全体中心点Cとを結ぶ線を、線L7とする。また、領域H5の中心点P5と全体中心点Cとを結ぶ線を、線L8とする。そして、線L7と線L8の間の角が90度以上であるものとする。 Further, FIG. 10 is an explanatory diagram of a second setting example of the division position of the outer peripheral side image when there are two person concentration areas in the heat map in the embodiment. As shown in FIG. 10A, it is assumed that there are two areas of concentration of people in the heat map, areas H4 and H5. In that case, for example, as shown in FIG. 10B, first, the line connecting the center point P4 of the region H4 and the overall center point C is defined as the line L7. Further, the line connecting the center point P5 of the region H5 and the overall center point C is defined as the line L8. Then, it is assumed that the angle between the line L7 and the line L8 is 90 degrees or more.
その場合、線L7と線L8の間の角を二等分する線を、分割位置の線L9として設定する。このようにすることで、画像中の複数の人物の位置のバランスがよくなり、機械学習における人物の認識精度が向上する。 In that case, the line that bisects the angle between the lines L7 and L8 is set as the line L9 at the division position. By doing so, the balance of the positions of a plurality of people in the image is improved, and the recognition accuracy of the person in machine learning is improved.
次に、図11を参照して、実施形態の画像処理装置1による第2の処理について説明する。図11は、実施形態の画像処理装置による第2の処理を示すフローチャートである。この第2の処理は、推論処理である。 Next, the second processing by the image processing apparatus 1 of the embodiment will be described with reference to FIG. FIG. 11 is a flowchart showing a second process by the image processing apparatus of the embodiment. This second process is an inference process.
ステップS41において、取得部21は、魚眼レンズを備えるカメラ100によって撮影された魚眼画像を取得する。 In step S41, the acquisition unit 21 acquires a fisheye image taken by a camera 100 including a fisheye lens.
次に、ステップS42において、中央画像抽出部22は、魚眼画像から光軸中心を含む中央画像を抽出する(図3)。次に、ステップS43において、外周側画像抽出部23は、魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する(図4)。
Next, in step S42, the central
次に、ステップS44において、分割部24は、外周側画像を周方向に複数の分割画像に分割する(図4)。次に、ステップS45において、変換部25は、複数の分割画像それぞれを矩形の平面画像に変換する(図5(a))。
Next, in step S44, the dividing unit 24 divides the outer peripheral side image into a plurality of divided images in the circumferential direction (FIG. 4). Next, in step S45, the
次に、ステップS46において、合成部26は、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成する(図5(a))。 Next, in step S46, the compositing unit 26 joins a plurality of plane images to create a rectangular composite plane image (FIG. 5A).
次に、ステップS47において、第1の推論部27は、合成平面画像(図5(a))と第1の推論モデルに基づいて、合成平面画像に写っている物体を推論する。 Next, in step S47, the first inference unit 27 infers the object shown in the composite plane image based on the composite plane image (FIG. 5A) and the first inference model.
次に、ステップS48において、第2の推論部28は、中央画像(図5(b))と第2の推論モデルに基づいて、中央画像に写っている物体を推論する。なお、ステップS47とステップS48は、同時に実行してもよい。 Next, in step S48, the second inference unit 28 infers the object shown in the central image based on the central image (FIG. 5B) and the second inference model. In addition, step S47 and step S48 may be executed at the same time.
このようにして、実施形態の画像処理装置1によれば、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる。具体的には、魚眼画像を周方向に複数の分割画像に分割してから矩形の平面画像に変換し、さらに、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成し、その際に、合成平面画像の縦と横の長さがなるべく近くなるようにする。そして、その合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づくことで、合成平面画像に写っている物体を高精度で推論することができる。 In this way, according to the image processing apparatus 1 of the embodiment, the fisheye image can be used for machine learning with high recognition accuracy in consideration of the distortion in the image. Specifically, the fisheye image is divided into a plurality of divided images in the circumferential direction and then converted into a rectangular plane image, and further, the plurality of plane images are joined to create a rectangular composite plane image. In addition, the vertical and horizontal lengths of the composite plane image should be as close as possible. Then, based on the composite plane image and the first inference model learned by machine learning about the plane image, the object reflected in the composite plane image can be inferred with high accuracy.
また、魚眼画像を周方向に複数の分割画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、移動物体が多い領域ほど分割位置にならないようにすることで(図8〜図10)、合成平面画像(図5(a))において人物が端で切れてしまう可能性を低減し、機械学習における認識精度を向上させることができる。例えば、魚眼画像中に、建物等の出入口があってその部分を人物がよく通過する場合、人物がよく通過するその領域を避けて魚眼画像の分割位置を設定することができ、効果的である。 In addition, when dividing a fisheye image into a plurality of divided images in the circumferential direction, based on statistical information on moving objects in the past fisheye image, it is possible to prevent the division position from becoming a region with many moving objects. (FIGS. 8 to 10), the possibility that a person is cut off at an edge in a composite plane image (FIG. 5 (a)) can be reduced, and recognition accuracy in machine learning can be improved. For example, when there is an entrance / exit of a building or the like in a fisheye image and a person often passes through that part, it is possible to set the division position of the fisheye image while avoiding the area where the person often passes, which is effective. Is.
また、さらに具体的には、魚眼画像中の人物集中領域が2つのとき、例えば、魚眼画像の中心から当該2つの領域それぞれの中心までの直線同士のなす角度が90度未満の場合は、当該2つの領域が同じ側になるように、魚眼画像を、魚眼画像の中心を通る1本の線で周方向に分割すればよい。また、当該角度が90度以上の場合は、当該2つの領域が反対側になるように、魚眼画像を、魚眼画像の中心を通る1本の線で周方向に分割すればよい。そうすれば、画像中の複数の人物の位置のバランスがよくなり、機械学習における人物の認識精度が向上する。 More specifically, when there are two concentrated areas of people in the fisheye image, for example, when the angle between the straight lines from the center of the fisheye image to the center of each of the two areas is less than 90 degrees. The fisheye image may be divided in the circumferential direction by a single line passing through the center of the fisheye image so that the two regions are on the same side. When the angle is 90 degrees or more, the fisheye image may be divided in the circumferential direction by a single line passing through the center of the fisheye image so that the two regions are on opposite sides. By doing so, the positions of the plurality of people in the image are well-balanced, and the recognition accuracy of the people in machine learning is improved.
また、魚眼画像の分割に統計情報を使う際、ヒートマップ情報として使うことで、処理が簡潔で済む。 In addition, when statistical information is used to divide a fisheye image, the processing can be simplified by using it as heat map information.
また、魚眼画像について、別途、中央画像を抽出し、中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づくことで、魚眼画像の中央部分についての機械学習における人物の認識精度が向上する。 In addition, for the fisheye image, the central image is separately extracted, and the machine learning about the central part of the fisheye image is based on the central image and the second inference model learned by machine learning about the central image. The recognition accuracy of the person in is improved.
なお、画像処理装置1による上述の処理は、撮影対象領域を鉛直下向きに撮影するように設置されているカメラ100からの魚眼画像に対して特に効果的であるが、これに限定されない。例えば、撮影対象領域を水平方向に撮影するように設置されているカメラ100からの魚眼画像に対しても、本発明を適用することができる。カメラ100の向きに関係なく、魚眼画像における歪みは存在するからである。 The above-mentioned processing by the image processing apparatus 1 is particularly effective for a fisheye image from a camera 100 installed so as to photograph a photographing target area vertically downward, but the processing is not limited thereto. For example, the present invention can be applied to a fisheye image from a camera 100 installed so as to capture an image target area in the horizontal direction. This is because distortion exists in the fisheye image regardless of the orientation of the camera 100.
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成および各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。 The disclosed technique is not limited to the above-described embodiment, and can be variously modified and implemented without departing from the spirit of the present embodiment. Each configuration and each process of the present embodiment can be selected as necessary, or may be combined as appropriate.
例えば、本実施形態では、画像処理装置1を1つのコンピュータ装置によって実現するものとして説明したが、これに限定されず、画像処理装置1を複数のコンピュータ装置によって実現してもよい。 For example, in the present embodiment, the image processing device 1 has been described as being realized by one computer device, but the present invention is not limited to this, and the image processing device 1 may be realized by a plurality of computer devices.
また、用いる機械学習は、ディープラーニングに限定されず、ディープラーニング以外であってもよい。 Further, the machine learning used is not limited to deep learning and may be other than deep learning.
また、本実施形態では、機械学習における学習と推論のうち、特に推論の場面について説明したが、これに限定されず、学習の場面にも本発明を適用することができる。 Further, in the present embodiment, the inference scene is particularly described among the learning and inference in machine learning, but the present invention is not limited to this, and the present invention can be applied to the learning scene as well.
また、図9、図10では、人物集中領域が2つの場合について説明したが、これに限定されず、人物集中領域が3つ以上の場合であっても、人物集中領域を集中度合いでランク分けすること等によって同様に対応することができる。 Further, in FIGS. 9 and 10, the case where the person concentration area is two has been described, but the present invention is not limited to this, and even if the person concentration area is three or more, the person concentration area is ranked according to the degree of concentration. It can be dealt with in the same way by doing so.
また、本実施形態では、魚眼画像から中央画像の抽出を行うものとしたが、これに限定されず、中央画像を抽出せず、魚眼画像を周方向に分割して機械学習に用いるようにしてもよい。 Further, in the present embodiment, the central image is extracted from the fisheye image, but the present invention is not limited to this, and the fisheye image is divided in the circumferential direction and used for machine learning without extracting the central image. It may be.
また、魚眼画像の周方向の分割は、2分割に限定されず、3つ以上への分割であってもよい。 Further, the division of the fisheye image in the circumferential direction is not limited to two divisions, and may be divided into three or more.
また、図4における領域R2、R3に含まれない中心の円領域の大きさは、魚眼画像の解像度やレンズの種類等によって、適宜、変更してもよい。 Further, the size of the central circular region not included in the regions R2 and R3 in FIG. 4 may be appropriately changed depending on the resolution of the fisheye image, the type of lens, and the like.
本発明は、例えば、監視カメラ、全天球カメラ等に適用することができる。 The present invention can be applied to, for example, surveillance cameras, spherical cameras, and the like.
1…画像処理装置、2…処理部、3…記憶部、4…入力部、5…表示部、6…通信部、21…取得部、22…中央画像抽出部、23…外周側画像抽出部、24…分割部、25…変換部、26…合成部、27…第1の推論部、28…第2の推論部、100…カメラ
1 ... Image processing device, 2 ... Processing unit, 3 ... Storage unit, 4 ... Input unit, 5 ... Display unit, 6 ... Communication unit, 21 ... Acquisition unit, 22 ... Central image extraction unit, 23 ... Outer peripheral side image extraction unit , 24 ... division part, 25 ... conversion part, 26 ... synthesis part, 27 ... first inference part, 28 ... second inference part, 100 ... camera
Claims (8)
前記魚眼画像を周方向に複数の分割画像に分割する分割部と、
複数の前記分割画像それぞれを矩形の平面画像に変換する変換部と、
複数の前記平面画像をつなぎ合わせて矩形の合成平面画像を作成する合成部と、
前記合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、前記合成平面画像に写っている物体を推論する第1の推論部と、を備える画像処理装置。 An acquisition unit that acquires a fisheye image taken by a shooting means equipped with a fisheye lens,
A division portion that divides the fisheye image into a plurality of divided images in the circumferential direction,
A conversion unit that converts each of the plurality of divided images into a rectangular flat image,
A compositing unit that creates a rectangular composite plane image by connecting a plurality of the plane images.
An image processing device including the composite plane image, a first inference model learned by machine learning about the plane image, and a first inference unit that infers an object appearing in the composite plane image based on the first inference model. ..
前記魚眼画像の中心から当該2つの領域それぞれの中心までの直線同士のなす角度が90度未満の場合は、当該2つの領域が同じ側になるように、前記魚眼画像を、前記魚眼画像の中心を通る1本の線で周方向に分割し、
当該角度が90度以上の場合は、当該2つの領域が反対側になるように、前記魚眼画像を、前記魚眼画像の中心を通る1本の線で周方向に分割する、請求項3に記載の画像処理装置。 Based on the statistical information, the divided portion is used to divide the fisheye image into two divided images in the circumferential direction so that the two regions having many moving objects in the fisheye image do not become the divided positions. ,
When the angle between the straight lines from the center of the fisheye image to the center of each of the two regions is less than 90 degrees, the fisheye image is displayed so that the two regions are on the same side. Divide in the circumferential direction by a single line passing through the center of the image
3. When the angle is 90 degrees or more, the fisheye image is divided in the circumferential direction by a single line passing through the center of the fisheye image so that the two regions are on opposite sides. The image processing apparatus according to.
前記魚眼画像から光軸中心を含む中央画像を抽出する中央画像抽出部と、
前記中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、前記中央画像に写っている物体を推論する第2の推論部と、をさらに備える、請求項1に記載の画像処理装置。 The image processing device is
A central image extraction unit that extracts a central image including the center of the optical axis from the fisheye image,
Claim 1 further includes a second inference unit that infers an object appearing in the central image based on the central image, a second inference model learned by machine learning about the central image, and the like. The image processing apparatus according to.
魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、
前記魚眼画像を周方向に複数の分割画像に分割する分割部と、
複数の前記分割画像それぞれを矩形の平面画像に変換する変換部と、
複数の前記平面画像をつなぎ合わせて矩形の合成平面画像を作成する合成部と、
前記合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、前記合成平面画像に写っている物体を推論する第1の推論部と、して機能させるための画像処理プログラム。 Computer,
An acquisition unit that acquires a fisheye image taken by a shooting means equipped with a fisheye lens,
A division portion that divides the fisheye image into a plurality of divided images in the circumferential direction,
A conversion unit that converts each of the plurality of divided images into a rectangular flat image,
A compositing unit that creates a rectangular composite plane image by connecting a plurality of the plane images.
To function as a first inference unit that infers an object appearing in the composite plane image based on the composite plane image and a first inference model learned by machine learning about the plane image. Image processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110437A JP6820489B2 (en) | 2019-06-13 | 2019-06-13 | Image processing device and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110437A JP6820489B2 (en) | 2019-06-13 | 2019-06-13 | Image processing device and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020201879A true JP2020201879A (en) | 2020-12-17 |
JP6820489B2 JP6820489B2 (en) | 2021-01-27 |
Family
ID=73744188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019110437A Expired - Fee Related JP6820489B2 (en) | 2019-06-13 | 2019-06-13 | Image processing device and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6820489B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949408A (en) * | 2021-02-02 | 2021-06-11 | 华电西藏能源有限公司 | Real-time identification method and system for target fish passing through fish channel |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018097766A (en) * | 2016-12-16 | 2018-06-21 | クラリオン株式会社 | Image processing device and environment recognition device |
JP2018142939A (en) * | 2017-02-28 | 2018-09-13 | キヤノン株式会社 | Imaging device, imaging system, method for controlling the same, and program |
-
2019
- 2019-06-13 JP JP2019110437A patent/JP6820489B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018097766A (en) * | 2016-12-16 | 2018-06-21 | クラリオン株式会社 | Image processing device and environment recognition device |
JP2018142939A (en) * | 2017-02-28 | 2018-09-13 | キヤノン株式会社 | Imaging device, imaging system, method for controlling the same, and program |
Non-Patent Citations (1)
Title |
---|
末松 良一: "中心窩を有する新しい視覚センサの開発", 計測自動制御学会論文集 第31巻 第10号, vol. 第31巻 第10号, JPN6020034200, 31 October 1995 (1995-10-31), JP, pages 1556 - 1563, ISSN: 0004343427 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949408A (en) * | 2021-02-02 | 2021-06-11 | 华电西藏能源有限公司 | Real-time identification method and system for target fish passing through fish channel |
CN112949408B (en) * | 2021-02-02 | 2022-10-21 | 中国水利水电科学研究院 | Real-time identification method and system for target fish passing through fish channel |
Also Published As
Publication number | Publication date |
---|---|
JP6820489B2 (en) | 2021-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11551338B2 (en) | Intelligent mixing and replacing of persons in group portraits | |
US12033082B2 (en) | Maintaining fixed sizes for target objects in frames | |
US9317762B2 (en) | Face recognition using depth based tracking | |
US10559062B2 (en) | Method for automatic facial impression transformation, recording medium and device for performing the method | |
CN110210276A (en) | A kind of motion track acquisition methods and its equipment, storage medium, terminal | |
US9262696B2 (en) | Image capture feedback | |
CN109978754A (en) | Image processing method, device, storage medium and electronic equipment | |
US9324374B2 (en) | Method and system for automatic generation of clips from a plurality of images based on an inter-objects relationship score | |
CN105659592A (en) | Camera system for three-dimensional video | |
DE112019001257T5 (en) | VIDEO STABILIZATION TO REDUCE CAMERA AND FACE MOVEMENT | |
JP2007280043A (en) | Video monitoring and search system | |
WO2023011013A1 (en) | Splicing seam search method and apparatus for video image, and video image splicing method and apparatus | |
CN103534726A (en) | Positional sensor-assisted image registration for panoramic photography | |
JP2009230703A (en) | Object detection method, object detection device, and object detection program | |
KR102248706B1 (en) | System for intergrated education management based on intelligent image analysis technology and method thereof | |
JP6875646B2 (en) | Image processing device and image processing program | |
US20170054904A1 (en) | Video generating system and method thereof | |
JP6820489B2 (en) | Image processing device and image processing program | |
CN110519509A (en) | Composition evaluation method, method for imaging, device, electronic equipment, storage medium | |
KR20070102360A (en) | Method for extracting subject and image synthesizing in moving picture | |
WO2023149135A1 (en) | Image processing device, image processing method, and program | |
JP2005157134A (en) | Information output method, device and program, and computer readable storage medium stored with information output program | |
JP2009251892A (en) | Object detection method, object detection device, and object detection program | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
CN115623313A (en) | Image processing method, image processing apparatus, electronic device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200915 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6820489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |