JP2019201344A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2019201344A JP2019201344A JP2018095389A JP2018095389A JP2019201344A JP 2019201344 A JP2019201344 A JP 2019201344A JP 2018095389 A JP2018095389 A JP 2018095389A JP 2018095389 A JP2018095389 A JP 2018095389A JP 2019201344 A JP2019201344 A JP 2019201344A
- Authority
- JP
- Japan
- Prior art keywords
- image
- monitoring
- acquired
- images
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、監視用の画像を処理するための技術に関する。 The present invention relates to a technique for processing an image for monitoring.
近年、遠隔監視システム等に用いる監視カメラが普及しているが、この監視カメラは、撮影した画像(映像や動画を含む)のデータ量を削減してネットワーク負荷を軽減させると共に、所定の空間に存在する人物100の顔等、監視対象としての対象物(以下単に「対象物」と称する。)を識別できる解像度の画像が必要となる。このため、多くの監視カメラでは、撮影した画像を画像認識に必要な解像度の画像に縮小し、縮小した画像を、たとえばH.264やH.265などのコーデックを用いたエンコードを行ったのち、画像処理装置に送る。この画像処理装置は、データ量が削減され、かつ対象物の識別が可能な画像を生成するための各種の処理を行う。
In recent years, surveillance cameras used in remote surveillance systems and the like have become widespread, but this surveillance camera reduces the amount of data of captured images (including video and moving images) to reduce the network load, and in a predetermined space. An image having a resolution capable of identifying an object to be monitored (hereinafter simply referred to as “object”) such as the face of the existing
従来、この画像処理装置において、入力画像の画像情報から、監視対象として重要な監視対象領域の画像情報と監視対象として重要でない非監視対象領域の画像情報とを分離し、監視対象領域の画像情報のビットレートよりも非監視対象領域の画像情報のビットレートを低くして、画像情報を送信する技術が知られている(例えば、特許文献1参照)。 Conventionally, in this image processing apparatus, the image information of the monitoring target region is separated from the image information of the monitoring target region that is important as the monitoring target and the image information of the non-monitoring target region that is not important as the monitoring target. There is known a technique for transmitting image information by lowering the bit rate of image information in a non-monitoring target area from the bit rate of the image (see, for example, Patent Document 1).
また、従来、画像処理装置において、ネットワークを介してカメラから画像を取得する第一の取得手段と、第一の取得手段により取得された画像に基づいて解析処理を行う解析手段とを備えると共に、解析手段による解析処理の結果に応じて、追加の画像を、ネットワークを介してカメラから取得する第二の取得手段と、第二の取得手段により取得された画像に基づいて解析処理を行う再解析手段とを備える解析装置を備えた技術が知られている(例えば、特許文献2)。 Conventionally, the image processing apparatus includes a first acquisition unit that acquires an image from a camera via a network, and an analysis unit that performs an analysis process based on the image acquired by the first acquisition unit. According to the result of the analysis process by the analysis unit, a second acquisition unit that acquires an additional image from the camera via the network, and a reanalysis that performs the analysis process based on the image acquired by the second acquisition unit A technique including an analysis device including a means is known (for example, Patent Document 2).
また、従来、画像処理装置において、物体認識部が、カメラにおいて生成された所定時間分の映像データから物体を認識し、認識結果分析部が、その認識結果を分析し、映像受信部で受信したフレーム画像から物体認識部で認識した映像中の顔の最小サイズと、移動速度とを求め、映像処理制御パラメータ決定部が、認識結果分析部で求めた顔の最小サイズと移動速度とから、フレームレート及び解像度の下限値を決定する技術が知られている(例えば、特許文献3)。 Further, conventionally, in an image processing apparatus, an object recognition unit recognizes an object from video data for a predetermined time generated by a camera, and a recognition result analysis unit analyzes the recognition result and receives it by a video reception unit. The minimum size of the face in the video recognized by the object recognition unit and the moving speed are obtained from the frame image, and the video processing control parameter determination unit determines the frame from the minimum size of the face and the moving speed obtained by the recognition result analysis unit. A technique for determining the lower limit value of the rate and resolution is known (for example, Patent Document 3).
ここで、監視カメラが撮影する空間には、複数の対象物が存在することが多い。また、たとえば対象物が人物の顔などである場合には、人物の移動にともなって対象物同士の位置関係や大きさや向きなどが時間の経過にともなって変化する。その結果、上記特許文献1乃至特許文献3に記載の発明では、それぞれの人物の顔位置の検出やそれぞれの顔画像の抽出等の処理に要する時間がフレームごとに変化するようなことになりやすい。その場合、顔認識が行われた画像から順に顔画像が並べられていくようなことになりやすい。そのため、上記特許文献1乃至3に記載の発明では、画像処理がされた画像は、時間の経過に伴って画像上を対象物が移動しやすくなってしまい、監視対象である対象物の監視を行いにくいものとなってしまうという問題がある。
Here, there are often a plurality of objects in the space where the surveillance camera captures images. For example, when the target is a person's face or the like, the positional relationship, size, direction, or the like of the target changes with time as the person moves. As a result, in the inventions described in
本発明は上記課題に鑑みてなされたものであり、監視対象である対象物の監視を行いやすい画像を生成できる画像処理装置、画像処理方法などを提供することを課題としている。 The present invention has been made in view of the above problems, and it is an object of the present invention to provide an image processing apparatus, an image processing method, and the like that can generate an image that can easily monitor an object to be monitored.
かかる課題を解決するために、請求項1に記載の発明は、画像処理装置であって、画像を取得する画像取得手段と、前記画像取得手段によって取得された取得画像に含まれる、対象物の対象物画像を抽出する対象物画像抽出手段と、前記対象物画像抽出手段によって抽出された1以上の対象物画像を配置した監視用画像を生成する監視用画像生成手段と、複数の取得画像に同一の対象物の対象物画像が含まれるとき、前記各取得画像を用いて生成される各監視用画像に含まれる同一の位置に、前記同一の対象物の対象物画像を配置する同一画像判定配置手段を備えたことを特徴とする。
In order to solve such a problem, the invention according to
請求項2に記載の発明は、請求項1に記載の構成に加え、前記同一画像判定配置手段は、前記取得画像から対象物の識別に用いる特徴量情報を抽出し、抽出した前記特徴量情報を用いて、複数の対象物画像が同一の画像か否かを判定することを特徴とする。 According to a second aspect of the present invention, in addition to the configuration according to the first aspect, the same image determination and arrangement unit extracts feature amount information used for identifying an object from the acquired image, and the extracted feature amount information Is used to determine whether or not a plurality of object images are the same image.
請求項3に記載の発明は、請求項1又は2に記載の構成に加え、前記同一画像判定配置手段は、ニューラルネットワークを用いて前記特徴量情報の抽出、及び、前記複数の対象物画像が同一の画像か否かの判定のうち少なくとも一方を行うことを特徴とする。 According to a third aspect of the present invention, in addition to the configuration according to the first or second aspect, the same image determination / arranging unit extracts the feature amount information using a neural network, and the plurality of object images are At least one of the determination of whether or not the images are the same is performed.
請求項4に記載の発明は、請求項1乃至3の何れか一つに記載の構成に加え、前記対象物画像を含む領域画像を抽出する領域画像抽出手段を備え、前記監視用画像生成手段は、前記領域画像抽出手段によって抽出された1以上の前記領域画像を配置した監視用画像を生成することを特徴とする。 According to a fourth aspect of the present invention, in addition to the configuration according to any one of the first to third aspects, a region image extracting unit that extracts a region image including the object image is provided, and the monitoring image generating unit Generates a monitoring image in which one or more of the region images extracted by the region image extraction unit are arranged.
請求項5に記載の発明は、請求項1乃至4の何れか一つに記載の構成に加え、前記画像の画素数を削減して前記取得画像、及び前記監視用画像のうち少なくとも一方を縮小する画像縮小手段を備え、前記画像縮小手段は、前記取得画像、又は、前記取得画像及び前記監視用画像を、前記取得画像における前記対象物画像を含む領域の方が前記監視用画像における前記対象物を含む領域よりも高い縮小率となるように縮小することを特徴とする。 According to a fifth aspect of the present invention, in addition to the configuration according to any one of the first to fourth aspects, the number of pixels of the image is reduced to reduce at least one of the acquired image and the monitoring image. An image reduction means that performs the acquisition image or the acquisition image and the monitoring image, and the region of the acquisition image that includes the object image is the target in the monitoring image. It is characterized in that it is reduced so as to have a higher reduction ratio than the region including the object.
請求項6に記載の発明は、請求項1乃至5の何れか一つに記載の構成に加え、前記取得画像を送信する第一のストリーム送信手段と、前記監視用画像を送信する第二のストリーム送信手段とを含み、前記取得画像、及び前記監視用画像のうち少なくとも一方を送信する送信手段を備えることを特徴とする。 According to a sixth aspect of the present invention, in addition to the configuration according to any one of the first to fifth aspects, a first stream transmission unit that transmits the acquired image and a second stream that transmits the monitoring image. Stream transmission means, and further comprising transmission means for transmitting at least one of the acquired image and the monitoring image.
請求項7に記載の発明は、請求項1乃至5の何れか一つに記載の構成に加え、前記監視用画像生成手段は、前記取得画像と前記対象物画像とを含む監視用画像とを並べて配置した配置画像を生成し、前記取得画像、前記監視用画像、及び前記配置画像のうち少なくとも何れか一つを送信する送信手段を備えることを特徴とする。 According to a seventh aspect of the present invention, in addition to the configuration according to any one of the first to fifth aspects, the monitoring image generation means includes a monitoring image including the acquired image and the object image. The image processing apparatus includes a transmission unit that generates an arrangement image arranged side by side and transmits at least one of the acquired image, the monitoring image, and the arrangement image.
請求項8に記載の発明は、請求項1乃至5の何れか一つに記載の構成に加え、前前記監視用画像生成手段は、前記取得画像上に対象物画像を含む監視用画像を重ね合わせて配置した重ね合わせ画像を生成し、前記取得画像、前記監視用画像、及び前記重ね合わせ画像のうち少なくとも何れか一つを送信する送信手段を備えることを特徴とする。 According to an eighth aspect of the present invention, in addition to the configuration according to any one of the first to fifth aspects, the monitoring image generation unit superimposes a monitoring image including an object image on the acquired image. The image processing apparatus includes a transmission unit that generates a superimposed image arranged together and transmits at least one of the acquired image, the monitoring image, and the superimposed image.
請求項9に記載の発明は、コンピュータによって実行される画像処理方法であって、画像を取得する処理と、前記画像を取得する処理によって取得された取得画像に含まれる、対象物の対象物画像を抽出する処理と、前記対象物の対象物画像を抽出する処理によって抽出された1以上の対象物画像を配置した監視用画像を生成する処理と、複数の取得画像に同一の対象物の対象物画像が含まれるとき、前記各取得画像を用いて生成される各監視用画像に含まれる同一の位置に、前記同一の対象物の対象物画像を配置する処理とを備えたことを特徴とする。
The invention according to
請求項10に記載の発明は、画像処理プログラムであって、画像を取得する処理と、前記画像を取得する処理によって取得された取得画像に含まれる、対象物の対象物画像を抽出する処理と、前記対象物の対象物画像を抽出する処理によって抽出された1以上の対象物画像を配置した監視用画像を生成する処理と、複数の取得画像に同一の対象物の対象物画像が含まれるとき、前記各取得画像を用いて生成される各監視用画像に含まれる同一の位置に、前記同一の対象物の対象物画像を配置する処理とをコンピュータに実行させることを特徴とする。
The invention according to
請求項1、請求項9、請求項10に記載の発明によれば、取得画像から抽出された対象物画像が、配置された監視用画像が生成されることにより、監視用画像には、取得画像中の監視対象である対象物が表示される。そして、監視用画像における対象物の位置は、取得画像中の対象物の位置などに依存しない態様とすることができるので、時間の経過にともなう取得画像中の対象物の位置などの変化の影響を抑止した監視用画像を生成できる。これにより、監視対象である対象物の監視を行いやすい画像を生成することが可能となる。 According to the first, ninth, and tenth aspects of the present invention, the monitoring image is generated by generating the monitoring image in which the object image extracted from the acquired image is arranged. An object to be monitored in the image is displayed. Since the position of the object in the monitoring image can be made independent of the position of the object in the acquired image, etc., the influence of changes in the position of the object in the acquired image over time Can be generated. As a result, it is possible to generate an image that makes it easy to monitor the target object.
請求項1、請求項9、請求項10に記載の発明によれば、複数の取得画像に同一の画像が存在する場合、各取得画像を用いて生成される監視用画像に含まれる同一の位置に同一の対象物の対象物画像を配置することにより、対象物の移動等にかかわらず、複数の監視用画像の同一の位置に同一の対象物の対象物画像を配置できるので、時間の経過に伴って対象物が移動したり複数の対象物の位置関係が入れ替わったりしても、監視用画像の同一の位置に同一の対象物を表示させ続けることができる。これにより、時間の経過に伴って監視用画像において同一の対象物の表示位置が頻繁に入れ替わるような事態を抑止して、監視対象である対象物を監視しやすい監視用画像を提供できる。 According to the first, ninth, and tenth inventions, when the same image exists in a plurality of acquired images, the same position included in the monitoring image generated using each acquired image By locating the same object image on the same object, the object image of the same object can be placed at the same position in the plurality of monitoring images regardless of the movement of the object. Accordingly, even if the object moves or the positional relationship of the plurality of objects is switched, the same object can be continuously displayed at the same position in the monitoring image. Accordingly, it is possible to prevent a situation in which the display position of the same object frequently changes in the monitoring image as time passes, and to provide a monitoring image that can easily monitor the object that is the monitoring target.
請求項2に記載の発明によれば、取得画像から抽出した特徴量情報を用いて、複数の対象物画像が同一の画像か否かを判定することにより、対象物が同一か否かを高い精度で判別できて、高い精度で監視用画像の同一の位置に同一の対象物を配置することができる。これにより、監視対象である対象物をより監視しやすい監視用画像を提供できる。 According to the second aspect of the present invention, it is determined whether or not the objects are the same by determining whether or not the plurality of object images are the same image using the feature amount information extracted from the acquired image. It is possible to discriminate with accuracy, and it is possible to arrange the same object at the same position of the monitoring image with high accuracy. As a result, it is possible to provide a monitoring image that makes it easier to monitor an object that is a monitoring target.
請求項3に記載の発明によれば、特徴量情報の抽出、及び複数の対象物画像が同一の画像か否かの判定のうち少なくとも一方にニューラルネットワークを用いることにより、特徴量情報に基づく同一の画像か否かの判別を、ニューラルネットワークの学習によって高い精度で行わせることができて、高い精度で監視用画像の同一位置に同一の対象物を配置することができる。これにより、監視対象である対象物をより監視しやすい監視用画像を提供できる。 According to the third aspect of the present invention, by using a neural network for at least one of extraction of feature amount information and determination of whether or not a plurality of object images are the same image, the same based on the feature amount information It is possible to determine whether or not the image is an image of the monitoring image with high accuracy by learning of the neural network, and it is possible to place the same object at the same position of the monitoring image with high accuracy. As a result, it is possible to provide a monitoring image that makes it easier to monitor an object that is a monitoring target.
請求項4に記載の発明によれば、対象物画像を含む領域画像を抽出して監視用画像とすることができるので、対象物の監視に用いる対象物画像の抽出を簡易な手順で行うことができ、処理の効率化を図ることができる。 According to the fourth aspect of the present invention, the region image including the object image can be extracted and used as the monitoring image. Therefore, the object image used for monitoring the object can be extracted with a simple procedure. And the processing efficiency can be improved.
請求項5に記載の発明によれば、画像縮小手段によって、取得画像、又は、取得画像及び監視用画像を、取得画像における対象物画像を含む領域の方が監視用画像における対象物画像を含む領域よりも高い縮小率となるように縮小することにより、撮影手段が撮影した全体の画像のデータ量を削減しつつ、対象物の監視に必要な画像を高い解像度の画像データとして生成できる。これにより、画像データ全体のデータ量を削減してネットワーク負荷を軽減させると共に、監視対象である対象物を容易に識別できる解像度の画像を生成できる。
According to the invention described in
請求項6に記載の発明によれば、第一のストリーム送信手段によって取得画像を送信し、第二のストリーム送信手段によって監視用画像を送信することにより、取得画像と監視用画像とを、一方の画像の通信状態が他方の画像の通信状態に影響を及ぼすことを抑止しつつ、ストリーム型のデータ通信による良好な通信状態でリアルタイムに送信することができる。 According to the sixth aspect of the present invention, the acquired image is transmitted by the first stream transmitting unit, and the monitoring image is transmitted by the second stream transmitting unit. It is possible to transmit in real time in a good communication state by the stream type data communication while suppressing the communication state of one image from affecting the communication state of the other image.
請求項7に記載の発明によれば、取得画像と対象物画像とを含む監視用画像とを並べて配置した配置画像を生成し、取得画像、監視用画像、及び配置画像のうち少なくとも一つを送信することにより、撮影手段が撮影した全体の画像と対象物の監視に必要な画像とが分離しない状態で一緒に送信できる。これにより、撮影手段が撮影した全体の画像とその全体の画像に含まれる監視対象である対象物とを容易に対照できる監視用画像を提供できる。 According to the seventh aspect of the present invention, an arrangement image in which the acquired image and the monitoring image including the object image are arranged and arranged is generated, and at least one of the acquired image, the monitoring image, and the arrangement image is generated. By transmitting, the entire image captured by the imaging unit and the image necessary for monitoring the object can be transmitted together without being separated. Thereby, it is possible to provide a monitoring image that can easily contrast the entire image captured by the imaging unit with the object that is the monitoring target included in the entire image.
請求項8に記載の発明によれば、取得画像上に対象物画像を含む監視用画像を重ね合わせて配置した重ね合わせ画像を生成し、取得画像、監視用画像、及び重ね合わせ画像のうち少なくとも一つを送信することにより、撮影手段が撮影した全体の画像と対象物の監視に必要な画像とを対照しやすい状態で配置したものを送信できる。これにより、撮影手段が撮影した全体の画像とその全体の画像に含まれる監視対象である対象物とを容易に対照できる監視用画像を提供できる。 According to the eighth aspect of the present invention, a superimposed image is generated by superposing and arranging the monitoring image including the object image on the acquired image, and at least the acquired image, the monitoring image, and the superimposed image are generated. By transmitting one, it is possible to transmit the entire image captured by the imaging unit and the image arranged in a state in which it is easy to contrast the image necessary for monitoring the object. Thereby, it is possible to provide a monitoring image that can easily contrast the entire image captured by the imaging unit with the target object that is included in the entire image.
図1乃至図6にこの発明の実施の形態を示す。 1 to 6 show an embodiment of the present invention.
[基本構成]
図1は、この実施の形態に係る画像処理システム1Aの全体構造を示す機能ブロック図である。
[Basic configuration]
FIG. 1 is a functional block diagram showing the overall structure of an image processing system 1A according to this embodiment.
[画像処理システム]
図1に示す画像処理システム1Aは、「撮影手段」としての監視カメラ1、この実施の形態に係る画像処理装置2、「端末」としての監視装置3を備えている。監視カメラ1と画像処理装置2、画像処理装置2と監視装置3とはネットワーク4,5によって接続されている。
[Image processing system]
An image processing system 1A shown in FIG. 1 includes a
[監視カメラ]
監視カメラ1は、遠隔地の監視に用いられるカメラである。監視カメラ1は、CCDイメージセンサやCMOSイメージセンサ等の撮像素子6を備えている。監視カメラ1は、監視を行う所定の空間、たとえば所定の室内や所定の屋外の地域などに設置される。監視カメラ1の撮像素子6は、監視カメラ1のレンズ(図示せず)から撮影された映像を、所定の画素数、たとえば1フレームあたり7680(横)×4320(縦)の画像(いわゆる8K画像)、1フレームあたり(横)4096×(縦)2048画素の画像(いわゆる4K画像)、あるいは1フレームあたり1920×1080画素(いわゆる2K画像)等で、所定のフレーム数、たとえば1秒あたり30フレームの動画として撮像する。ただし、監視カメラ1によって撮像される画像の画素の大きさや単位時間あたりのフレーム数はどのようなものでもよい。なお、この実施の形態では、監視カメラ1は8K画像の動画を撮影するものとして以下説明する。
[Surveillance camera]
The
監視カメラ1で撮像された画像は画像データとして画像処理装置2に送信される。
An image captured by the
[画像処理装置]
画像処理装置2は、監視カメラ1で撮影した画像を用いて監視画像(後述)を生成して監視装置3に送る機能を有する。画像処理装置2は、例えば、監視カメラ1内に設けられていてもよいし、監視カメラ1とは別に設けられていてもよい。画像処理装置2は、CPUを用いた処理やハードウェアロジックを用いた処理等により、所定の画像処理を行う。
[Image processing device]
The
図1の機能ブロック図に示すとおり、画像処理装置2は、「画像取得手段」としての画像取得部7、「対象物画像抽出手段」及び「対象物画像検出手段」としての顔画像検出部8、「対象物画像抽出手段」及び「領域画像抽出手段」としての顔画像抽出部9、「監視用画像生成手段」としての監視用画像生成部10、「画像圧縮手段」としての画像縮小部11、エンコーダ12、「送信手段」としての送信部13を備えている。また、監視用画像生成部10は、「特徴量情報抽出手段」としての特徴量抽出部14、「同一画像判定配置手段」としての判定・並べ替え部15を備えている。これらの構成のうちの一部又は全部は、ハードウェアとして構成されていてもよいし、コンピュータで演算することで機能するプログラムとして構成されていてもよい。プログラムは、コンピュータ読み取り可能な非一時的な記録媒体に記憶されてもよい。記録媒体は、例えば、SDメモリーカード(SD Memory Card)、FD(Floppy Disk)、CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu−ray(登録商標) Disk:)、およびフラッシュメモリなどの非一時的な記録媒体である。
As shown in the functional block diagram of FIG. 1, the
画像取得部7は、監視カメラ1が撮影して送信した画像を取得する。取得された画像は、画像処理装置2において、画像取得部7によって取得された画像としての取得画像(以下単に「取得画像」と称する。)として扱われる。取得画像は、監視カメラ1から送られたフレームごとの画像を単位に生成される。
The
顔画像検出部8は、取得画像に含まれる、所定の対象物が撮影された画像である対象物画像を検出する。
The face
顔画像検出部8は、物体検出用のニューラルネットワークのアルゴリズム、たとえばYOLO(You Only Look Once)やSSD(Single Shot Multibox Detector)を用いた物体検出器としての機能を備え、取得画像内にある対象物を検出する。ここで、顔画像検出部8において、ニューラルネットワークを使用せずに、OpenCV等のアルゴリズムを使用することもできる。
The face
なお、この実施の形態において、図1に示すように、「対象物」は人物100の顔101であり、「対象物画像」は人物100の顔101を撮影した顔画像である。また、この実施の形態において、顔画像検出部8は、ニューラルネットワークを用いて取得画像から特徴量を抽出することで、取得画像の中から顔画像を検出する。また、この実施の形態において、顔画像検出部8による顔画像の検出は、取得画像中の人物100の顔位置、つまり人物100の顔101が写っている位置を検出するものであるが、ここでの顔画像の検出は、取得画像中の顔画像を検出するものであればどのようなものでもよく、たとえば取得画像中にどの人物100の顔101がどの向きで写っている、というような情報が取得されてもよい。
In this embodiment, as shown in FIG. 1, “object” is a
顔画像抽出部9は、顔画像検出部8によって検出された、顔画像を含む領域としての領域画像(以下単に「領域画像」と称する。)を抽出する。
The face
監視用画像生成部10は、顔画像抽出部9によって抽出された一又は複数の領域画像を所定の配置領域に配置した監視用画像(以下単に「監視用画像」と称する。詳細は後述する。)を生成する。
The monitoring
画像縮小部11は、取得画像の画素数を削減して取得画像を縮小する。この実施の形態においては、画像縮小部11においては、取得画像と領域画像のうち、取得画像のみを縮小するが、取得画像と領域画像の双方を縮小してもよい。
The
エンコーダ12は、取得画像と監視用画像を符号化(エンコード)する。符号化には、例えばH.264やH.265のような画像圧縮プロトコルを用いる。
The
送信部13は符号化した取得画像と監視用画像を監視装置3に送信する。この実施の形態において、送信部13は、所定のプロトコル、例えばH.264やH.265で画像を符号化して、ストリーム型のデータ通信を行う。また、送信部13は、複数系統のストリーム通信を行うことができ、取得画像と監視用画像とを2ストリーム化して別々の系統でストリーム型のデータ通信を行い、それぞれの画像を監視装置3に送信する。ただし、送信部13は1系統のみのストリーム型のデータ通信のみにより、取得画像と監視用画像を同一のデータストリームとして通信を行うものでもよい。
The
特徴量抽出部14は、取得画像から人物100の顔101の識別に必要な特徴量の情報である特徴量情報を抽出する。この特徴量情報については後述する。
The feature
なお、この実施の形態において、特徴量抽出部14は、特徴検出用のニューラルネットワークのアルゴリズム、たとえばVGG16やVGG-Faceを用いた特徴検出機能を備え、取得画像内の顔画像から特徴量情報を検出する。
In this embodiment, the feature
判定・並べ替え部15は、異なる時間に取得された複数の取得画像の中に同一の人物100の顔101が撮影された顔画像である同一の画像(以下単に「同一画像」と称する。)が存在する場合、それぞれの取得画像に基づいて生成されるそれぞれの監視用画像の同一の位置(以下単に「同一位置」と称する。)に同一画像を配置する。この実施の形態において、判定・並べ替え部15は、特徴量抽出部14において抽出された特徴量を対比することで同一画像か否かを判定する。
The determination / sorting
[監視装置]
監視装置3は、パーソナルコンピュータ、スマートフォン、タブレット等、ネットワーク5を介して画像処理装置2とデータや信号の送受信が可能な端末である。監視装置3は、マウス、キーボード等の操作部31と、LCDディスプレイ等の表示部32とを有する。なお、操作部31と表示部32とは、タッチパネル式ディスプレイのように一体になったものであってもよい。
[Monitoring device]
The
この実施の形態における監視装置3は、画像処理装置2から送られた画像を複号(デコード)して表示部32に監視用画像を画像表示し、この監視用画像を監視者に視認させることにより監視を行わせるための装置として構成されている。ただし、監視装置3にニューラルネットワーク等を用いた画像認識による人物判定機能を設け、監視装置3が自動的に監視カメラ1で撮影した画像に写った人物100の識別と監視とを行う構成であってもよい。
The
[ネットワーク]
ネットワーク4は監視カメラ1と画像処理装置2とを有線接続する通信媒体である。ネットワーク5は画像処理装置2と監視装置3とを有線接続又は無線接続する通信媒体である。ネットワーク4,5は、画像データと画像処理システム1Aを制御する信号とを送受信できるものならば、どのような通信形式や通信媒体であってもよい。
[network]
The
[領域画像の抽出]
この実施の形態において、特徴量抽出部14が領域画像から抽出する特徴量情報は、画像に含まれるベクトルの情報(つまり、画像の情報としては、「目」「鼻」等の顔101のパーツの位置、大きさ等の情報などよりも抽象的な、画像の特徴を表す情報)として取得される。そして、特徴量情報は、人物100の顔101の識別に用いる特徴量の情報であり、具体的には、複数の領域画像に含まれる人物100の顔101が同一人物の顔か否かを判定するために用いられる情報である。特徴量抽出部14は、備えているニューラルネットワークの特徴量検出機能に取得画像を入力し、それぞれの領域画像から人物100の顔101の識別に用いる特徴量情報を抽出する。そして、判定・並べ替え部15においては、この特徴量情報を用いて、それぞれの領域画像に含まれる画像が同一画像か否か、即ち、同一人物の顔101か否かを判定する。
[Extract region image]
In this embodiment, the feature amount information extracted from the region image by the feature
具体的には、特徴量抽出部14は、例えばVGG16の4096次元の特徴ベクトルなど、画像の特徴を適切に捉えられるニューラルネットワーク等を使用して、領域画像に含まれる顔が同一人物の顔101か否かを判定することが考えられる。ニューラルネットワークの特徴量を用いる場合には、例えば、前フレーム(の取得画像から抽出された領域画像)の顔画像と現フレーム(の取得画像から抽出された領域画像)の顔画像の4096次元の特徴ベクトルを計算し、それらの内積の値、もしくはベクトル距離を見ることにより、比較している顔画像が同一人物の顔画像か否かを判定することが考えられる。
Specifically, the feature
なお、判定・並べ替え部15における同一人物の顔画像か否かの判定には、特徴量抽出部14で抽出された特徴量情報を用いずに、画像間の二乗誤差を使用することも考えられる。
Note that it is also possible to use a square error between images without using the feature amount information extracted by the feature
そして、判定・並べ変え部15は、特定の取得画像から抽出した領域画像と、その次に取得された取得画像の領域画像とが同一人物の顔画像を含む同一画像である可能性が高い場合は、前の領域画像を用いて生成した監視用画像に含まれる同一画像と同じ配置に、次の領域画像を用いて生成した監視用画像の同一画像を表示するようにする。
Then, the determination / sorting
[領域画像の監視用画像への配置]
図2は、この実施の形態の画像処理システム1Aの画像処理装置2における、領域画像を監視用画像に配置する際の処理の原理を模式的に示す図である。
[Placement of area image on monitoring image]
FIG. 2 is a diagram schematically showing the principle of processing when an area image is arranged on a monitoring image in the
図2の(a)に示すように、特定の時点の取得画像211に人物1001の顔1011、人物1002の顔1012、人物1003の顔1013が写った状態で、この取得画像21から、人物1001の顔1011の領域画像231、人物1002の顔1012の領域画像232、人物1003の顔1013の領域画像233がそれぞれ生成されて監視用画像22が生成された場合を考える。この場合、それぞれの人物100が自由に空間内を移動すると、監視カメラ1で撮影した動画像のそれぞれのフレームに撮像された画像のそれぞれの人物100の顔101は、時間の経過と共に移動したり大きさが変化したりする。図2の(b)は、図2の(a)に示した取得画像211が取得された後に取得画像212が取得された状態を模式的に示したものである。この状態においては、人物1001と人物1003の左右方向の位置が入れ替わり、人物1002に替わって人物1004が写っている。実際の空間内の人物100の撮影では、このように、時間の経過と共に取得画像21中の人物100の顔101同士の位置関係が入れ替わってしまったり、フレームごとに人物100が現れたり、去ったりすることが頻繁に起こる。
As shown in (a) of FIG. 2, the
このような状況では、顔画像検出部8における顔検出の順番は、ニューラルネットワークの特性により一定ではなくなる。そのため、顔画像検出部8において顔画像が検出された順番に、複数の領域画像23を監視用画像22の配置領域に配置していくと、顔101の表示順が、監視用画像22ごとにめまぐるしく変わってしまい、監視装置3の表示部32を監視する監視者等、監視対象である顔画像の視認性等が落ちることになる。
In such a situation, the order of face detection in the face
そこで、この実施の形態においては、特徴量抽出部14の特徴量抽出の結果、複数の取得画像、たとえば特定の取得画像21から抽出された領域画像23と、その取得画像21を生成した直後に生成された取得画像21から抽出された領域画像23とに、同一人物が写った同一画像が存在する場合には、判定・並べ替え部15は、その同一画像を、それぞれの監視用画像22の同一位置に配置するようにする。
Therefore, in this embodiment, as a result of the feature amount extraction by the feature
例えば図2の(b)の監視用画像22においては、図2の(a)の監視用画像22と同様に、一番左の領域画像231に人物1001の顔1011が、一番右の領域画像233に人物1003の顔1013が、それぞれ表示された状態が維持されている。一方、図2の(b)においては、監視用画像22の真ん中の領域画像234には、(図2の(a)の取得画像211から図2の(b)の取得画像212までの時間経過の過程で)画像に表示されなくなった人物1002の顔1012に替えて、新たに表示された人物1004の顔1014が表示されている。このように構成することで、同一人物の顔101(例えば図2の(a)(b)における、人物1001の顔1011、人物1003の顔1013)の表示された監視用画像22(例えば図2(a)の監視用画像221、図2(b)の監視用画像222)上での位置が、時間の経過と共にめまぐるしく変わる事態が抑止される。
For example, in the
なお、以下の説明では、監視カメラ1が撮影した動画の隣接するフレーム同士から生成された取得画像21(つまり、特定の取得画像21と、その直後に取得された取得画像21)を、同一画像の有無を判定する対象として説明するが、これに限定されず、同一画像か否かを判定できる態様であればどのような取得画像21同士の判定をおこなってもよい。たとえば、隣接する3つ以上のフレームからなる取得画像21に共通して同一人物の顔101が写っている場合を同一画像としてもよいし、所定の枚数ごと、例えば10フレームごとに取得された取得画像21に共通して同一人物の顔101が写っている場合を同一画像としてもよい。
In the following description, an acquired image 21 (that is, a specific acquired
また、この実施の形態の判定・並べ替え部15は、監視用画像22の同じ位置に同一画像を表示させるのではなく、人物100ごとにIDを振り、予め設定された人物100ごとの表示位置にそれぞれの人物100の写った領域画像23が表示されるように並べ変えを行って、監視用画像22を生成してもよい。
In addition, the determination / sorting
[処理手順]
図3は、この実施の形態の画像処理システム1Aの処理手順を示すフローチャートである。以下、このフローチャートに基づいてこの実施の形態の処理手順を説明する。
[Processing procedure]
FIG. 3 is a flowchart showing a processing procedure of the image processing system 1A according to this embodiment. The processing procedure of this embodiment will be described below based on this flowchart.
まず、画像処理システム1Aを用いて遠隔監視を行う監視者(以下単に「監視者」と称する。)が画像処理システム1Aを起動すると、監視カメラ1は所定の空間を動画で撮影する(ステップS1)。監視カメラ1は高解像度の画像(ここでは8Kの画像)を動画として取得する。監視カメラ1が撮影した画像はネットワーク4を介して画像処理装置2に送られる。
First, when a monitor (hereinafter simply referred to as “monitorer”) who performs remote monitoring using the image processing system 1A activates the image processing system 1A, the
画像処理装置2においては、画像取得部7が監視カメラ1から送られた画像を取得する(ステップS2)。画像取得部7が取得した取得画像21は、顔画像検出部8に送られる。顔画像検出部8は、取得画像21を所定のフォーマットに縮小するための処理(例えば画素数を減少させて8Kの取得画像21をより解像度の低い取得画像21にする処理)を行う。この処理ののち、顔画像検出部8は、備えているニューラルネットワークの顔検出機能に取得画像21を入力し、取得画像21中に含まれる顔位置を検出する(ステップS3)。
In the
図4には、ステップS2に顔位置を検出する状態を模式的に示している。具体的には、顔画像検出部8は、取得画像21中の顔位置の情報として、x,y,w,hの4変数を取得する。なお、ここで、x,y,w,hの4変数は、例えば、(x,y)が画像の左上座標(元の取得画像211の特定の画素の座標位置P(x,y)を示す情報である。この座標位置Pが、抽出する領域画像231の左上の頂点にあたる。)を示し、wが画像の幅(抽出する領域画像231の幅方向の大きさ)を示し、hが画像の高さ(抽出する領域画像231の高さ方向の大きさ)を示している。
FIG. 4 schematically shows a state in which the face position is detected in step S2. Specifically, the face
次に、顔画像抽出部9は、顔画像検出部8が検出した顔部分を切り出して領域画像23を抽出する(ステップS4)。
Next, the face
図4は、取得画像21から領域画像23を抽出する状態、及び、抽出した領域画像23に基づいて監視用画像22を生成する状態を模式的に示す図である。同図に示すとおり、例えば領域画像231は、元の取得画像21に写った人物1001の顔1011の近傍を抽出した、元の取得画像21のx,y座標の位置を左上の頂点とし、幅w、高さhの矩形の画像となっている。この領域画像231は元の取得画像21よりも少ない画素数の画像、ここでは2Kの画像となっている。
FIG. 4 is a diagram schematically illustrating a state in which the region image 23 is extracted from the acquired
なお、この実施の形態では、画像縮小部11で、元の取得画像21の画素数を減少させる処理(例えば、8Kの画像の画素数を減少させて2Kの取得画像21とする処理)を行ったのちにエンコーダ12での符号化処理と監視装置3への送信とを行っているが、領域画像23は、元の取得画像21から一部分を切り取って2Kの画像としているので、取得画像21を2Kの画像とすることで、取得画像21の人物100の顔101が撮影された部分だけは実質的に8Kの画像の画質を保持してエンコーダ12による符号化処理や監視装置3への送信を行うことができる。つまり、この実施の形態においては、エンコーダ12の処理能力が低かったり、ネットワーク5の帯域が狭かったりしても、符号化の遅延や通信の遅延等の不具合が起こる事態を抑止し、高い解像度の監視カメラ1で撮影した画像を活用した監視を行うことができるようになる。
In this embodiment, the
次に、監視用画像生成部10は、顔画像抽出部9によって抽出された一又は複数の領域画像23によって監視用画像22を生成する(ステップS5)。
Next, the monitoring
ステップS4の手順を詳述すると、まず、特徴量抽出部14は、領域画像23を所定のフォーマットに縮小するための処理(例えば画素数を減少させて2Kの領域画像23をより解像度の低い領域画像23にする処理)を行う。この処理ののち、特徴量抽出部14は、領域画像23から特徴量情報を抽出する(ステップS51)。
The procedure of step S4 will be described in detail. First, the feature
判定・並べ替え部15は、特徴量抽出部14において抽出された、領域画像23ごとの特徴量情報を対比する。そして、隣接する取得画像21(つまり、例えば図2の(a)に示す、監視カメラ1が撮影した特定のフレームにより生成された取得画像211と、図2の(b)に示す、そのフレームの次のフレームにより生成された取得画像212)から取得された顔画像の特徴量情報が同一又は所定の類似範囲内のものである場合、判定・並べ替え部15は、それらの顔画像は同一人物の顔画像すなわち同一画像であると判定する。
The determination / sorting
そして、判定・並べ替え部15は、隣接する取得画像21から抽出された複数の領域画像23が同一画像である場合、それぞれの取得画像21に基づいて生成されるそれぞれの領域画像23を並べ変えて、監視用画像22の同一位置に同一画像を配置する(ステップS52)。また、同一画像ではない領域画像23は、判定・並べ替え部15の所定の処理によって、監視用画像22の同一画像が配置されていない配置領域に配置される。
Then, when the plurality of region images 23 extracted from the adjacent acquired
以上のステップS5の処理により、監視用画像生成部10において監視用画像22が生成される。なお、監視用画像22に配置されるそれぞれの領域画像23は2K画像の画素数となっている。
The
画像縮小部11は、上述の顔画像検出部8〜顔画像抽出部9〜監視用画像生成部10での処理とは別系統の処理により、画像取得部7が監視カメラ1から取得した取得画像21の画素数を減少させる縮小処理を行う(ステップS6)。この実施の形態では、画像縮小部11は、元の取得画像21の8K画像の画素数を2K画像の画素数に減少させた取得画像21を生成する処理を行う。このような処理を行うことで、画像のデータ量を削減できるので、エンコーダ12の符号化処理の能力では監視カメラ1で撮影した画素数の画像を処理できない場合であっても、適正に符号化を行うことができ、また、画像データを送る際のネットワーク5の帯域の負荷が過大となる事態を抑制できる。
The
エンコーダ12は、ステップS4で生成された監視用画像22とステップS5で生成された取得画像21とを符号化(エンコード)する(ステップS7)。
The
そして、送信部13は符号化した取得画像21と監視用画像22とを監視装置3に送信する(ステップS8)。ここで、送信部13は、図4に示すように、「第一のストリーム送信手段」としての取得画像用ストリーム24と、「第二のストリーム送信手段」としての監視用画像用ストリーム25の2系統のデータストリームによって画像を監視装置3に送信してもよい。
Then, the
なお、送信部13は、取得画像21と監視用画像22を1つの画像にまとめた態様の画像を生成し、1系統のデータストリーム28によって監視装置3に送信してもよい。例えば、図5に示す他の例のように、送信部13は、上半分を取得画像21、下半分を監視用画像22のように並べて配置した配置画像26を生成してデータストリーム28によって監視装置3に送信してもよい。また、図6に示す更に他の例のように、送信部13は、取得画像21の上に監視用画像22をウィンドウ表示のような形で重ね合わせて配置した重ね合わせ画像27を生成してデータストリーム28によって監視装置3に送信してもよい。また、監視装置3等からの遠隔操作で、画像処理装置2が監視装置3に送信する画像を、特定の監視用画像22(例えば、特定の人物100の顔101が撮影された特定の領域画像23)がズームされたものとして送信してもよいし、取得画像21の送信と監視用画像22との送信を切り替えられるようにしてもよい。
Note that the
以上、この実施の形態においては、取得画像21から抽出された顔画像が配置された監視用画像22が生成されることにより、監視用画像22には、取得画像21中の監視対象である顔画像が表示される。そして、監視用画像22における顔画像の位置は、取得画像21中の人物100の顔101の位置などに依存しない態様とすることができるので、時間の経過にともなう取得画像21中の人物100の顔101の位置などの変化の影響を抑止した監視用画像22を生成できる。これにより、監視対象である人物100の顔101の監視を行いやすい画像を生成することが可能となる。
As described above, in this embodiment, by generating the
この実施の形態においては、複数の取得画像21に同一人物の顔101が撮影された同一の画像が存在する場合、各取得画像21を用いて生成される監視用画像22に含まれる同一の位置に同一の人物の顔画像を配置することにより、人物100の移動等にかかわらず、複数の監視用画像22の同一の位置に同一の人物の顔画像を配置できるので、時間の経過に伴って人物100の顔101が移動したり複数の人物100の顔101の位置関係が入れ替わったりしても、監視用画像22の同一の位置に同一の人物の顔画像を表示させ続けることができる。これにより、時間の経過に伴って監視用画像22において同一の人物の顔101が表示された位置が頻繁に入れ替わるような事態を抑止して、監視対象である人物100の顔101を監視しやすい監視用画像22を提供できる。
In this embodiment, when the same image obtained by photographing the
この実施の形態においては、取得画像21から抽出した特徴量情報を用いて、複数の顔画像が同一人物の顔画像か否かを判定することにより、撮影された人物100が同一か否かを高い精度で判別できて、高い精度で監視用画像22の同一の位置に同一の人物の顔画像を配置することができる。これにより、監視対象である人物100の顔101をより監視しやすい監視用画像22を提供できる。
In this embodiment, by using the feature amount information extracted from the acquired
この実施の形態においては、特徴量情報の抽出や複数の顔画像が同一の画像か否かの判定にニューラルネットワークを用いることにより、特徴量情報に基づいた同一人物の顔画像か否かの判別を、ニューラルネットワークの学習によって高い精度で行わせることができて、高い精度で監視用画像22の同一位置に同一人物の顔画像を配置することができる。これにより、監視対象である人物100の顔101をより監視しやすい監視用画像22を提供できる。
In this embodiment, a neural network is used for extracting feature amount information and determining whether or not a plurality of face images are the same image, thereby determining whether or not they are face images of the same person based on the feature amount information. Can be performed with high accuracy by learning a neural network, and face images of the same person can be arranged at the same position of the
この実施の形態においては、顔画像を含む領域画像23を抽出して監視用画像22とすることができるので、監視対象である人物100の監視に用いる顔画像の抽出を簡易な手順で行うことができ、処理の効率化を図ることができる。
In this embodiment, since the area image 23 including the face image can be extracted and used as the
この実施の形態においては、画像縮小部11によって、取得画像21、又は、取得画像21及び監視用画像22を、取得画像21における顔画像を含む領域の方が監視用画像22における顔画像を含む領域よりも高い縮小率となるように縮小することにより、監視カメラ1が撮影した全体の画像のデータ量を削減しつつ、監視対象である人物100の顔101の監視に必要な画像を高い解像度の画像データとして生成できる。これにより、画像データ全体のデータ量を削減してネットワーク負荷を軽減させると共に、監視対象である人物100の顔101を容易に識別できる解像度の画像を生成できる。
In this embodiment, the
この実施の形態においては、第一のストリーム送信手段によって取得画像21を送信し、第二のストリーム送信手段によって監視用画像22を送信することにより、取得画像21と監視用画像22とを、一方の画像の通信状態が他方の画像の通信状態に影響を及ぼすことを抑止しつつ、ストリーム型通信による良好な通信状態でリアルタイムに送信することができる。
In this embodiment, the acquired
この実施の形態においては、取得画像21と顔画像とを含む監視用画像22とを並べて配置した配置画像26を生成し、取得画像21、監視用画像22、及び配置画像26のうち少なくとも何れか一つを送信することにより、監視カメラ1が撮影した全体の画像と監視対象である人物100の監視に必要な画像とが分離しない状態で一緒に送信できる。これにより、監視カメラ1が撮影した全体の画像とその全体の画像に含まれる監視対象である人物100の顔101とを容易に対照できる監視用画像22を提供できる。
In this embodiment, an
この実施の形態においては、取得画像21上に顔画像を含む監視用画像22を重ね合わせて配置した重ね合わせ画像27を生成し、取得画像21、監視用画像22、及び重ね合わせ画像27のうち少なくとも何れか一つを送信することにより、監視カメラ1が撮影した全体の画像と監視対象である人物100の監視に必要な画像とを対照しやすい状態で配置したものを送信できる。これにより、撮影手段が撮影した全体の画像とその全体の画像に含まれる監視対象である人物100の顔101とを容易に対照できる監視用画像22を提供できる。
In this embodiment, a
なお、この実施の形態においては、顔画像抽出部9は、取得画像21から、顔画像検出部8によって検出された、顔画像を含む領域としての領域画像23を抽出し、監視用画像22を生成する構成としたが、これに替えて、顔画像抽出部9が取得画像21から顔画像検出部8によって検出された顔画像のみを抽出し、この顔画像のみによって監視用画像22を生成する構成としてもよい。
In this embodiment, the face
また、この実施の形態においては、監視対象である対象物を人物100の顔101としたが、これに限定されず、対象物は、人物100の顔101以外、例えば全身像や手や足等であってもよいし、人物100以外、例えば動物や昆虫や植物などでもよいし、自動車や飛行機や電車等であってもよい。
In this embodiment, the object to be monitored is the
上記実施の形態は本発明の例示であり、本発明が上記実施の形態のみに限定されることを意味するものではないことは、いうまでもない。 The above embodiment is an exemplification of the present invention, and it is needless to say that the present invention is not limited to the above embodiment.
1・・・監視カメラ(撮影手段)
2・・・画像処理装置
7・・・画像取得部(画像取得手段)
8・・・顔画像検出部(対象物画像抽出手段、対象物画像検出手段)
9・・・顔画像抽出部(対象物画像抽出手段、領域画像抽出手段)
10・・・監視用画像生成部(監視用画像生成手段)
11・・・画像縮小部(画像縮小手段)
13・・・送信部(送信手段)
15・・・判定・並べ替え部(同一画像判定配置手段)
21,211,212・・・取得画像
22,221,222・・・監視用画像
23,231,232,233・・・領域画像
24・・・取得画像用ストリーム(第一のストリーム送信手段)
25・・・監視用画像用ストリーム(第二のストリーム送信手段)
26・・・配置画像
27・・・重ね合わせ画像
100,1001,1002,1003,1004・・・人物
101,1011,1012,1013,1014・・・顔
1 ... Surveillance camera (photographing means)
2 ...
8. Face image detection unit (object image extraction means, object image detection means)
9 ... Face image extraction unit (object image extraction means, area image extraction means)
10: Monitoring image generation unit (monitoring image generation means)
11: Image reduction section (image reduction means)
13: Transmitter (transmitter)
15 ... Judgment / rearrangement unit (same image judgment arrangement means)
21, 21 1 , 21 2 ... Acquired
25 ... Image stream for monitoring (second stream transmission means)
26 ... arranged
Claims (10)
前記画像取得手段によって取得された取得画像に含まれる、対象物の対象物画像を抽出する対象物画像抽出手段と、
前記対象物画像抽出手段によって抽出された1以上の対象物画像を配置した監視用画像を生成する監視用画像生成手段と、
複数の取得画像に同一の対象物の対象物画像が含まれるとき、前記各取得画像を用いて生成される各監視用画像に含まれる同一の位置に、前記同一の対象物の対象物画像を配置する同一画像判定配置手段
を備えたことを特徴とする画像処理装置。 Image acquisition means for acquiring images;
Object image extraction means for extracting the object image of the object included in the acquired image acquired by the image acquisition means;
Monitoring image generation means for generating a monitoring image in which one or more object images extracted by the object image extraction means are arranged;
When object images of the same object are included in a plurality of acquired images, the object image of the same object is placed at the same position included in each monitoring image generated using each acquired image. An image processing apparatus comprising: an identical image determination / arranging means for arranging.
ことを特徴とする請求項1に記載の画像処理装置。 The same image determination / arrangement unit extracts feature amount information used for identifying an object from the acquired image, and determines whether or not a plurality of object images are the same image using the extracted feature amount information. The image processing apparatus according to claim 1.
ことを特徴とする請求項2に記載の画像処理装置。 The said same image determination arrangement | positioning means performs at least one of the extraction of said feature-value information using a neural network, and the determination whether these several target object images are the same images. An image processing apparatus according to 1.
前記対象物画像を含む領域の領域画像を抽出する領域画像抽出手段を備え、
前記監視用画像生成手段は、前記領域画像抽出手段によって抽出された1以上の前記領域画像を配置した監視用画像を生成する
ことを特徴とする請求項1乃至3の何れか一つに記載の画像処理装置。 The object image extraction means includes
A region image extracting means for extracting a region image of a region including the object image;
4. The monitoring image generation unit generates a monitoring image in which one or more region images extracted by the region image extraction unit are arranged. 5. Image processing device.
前記画像縮小手段は、前記取得画像、又は、前記取得画像及び前記監視用画像を、前記取得画像における前記対象物画像を含む領域の方が前記監視用画像における前記対象物画像を含む領域よりも高い縮小率となるように縮小する
ことを特徴とする請求項1乃至4の何れか一つに記載の画像処理装置。 Image reduction means for reducing the number of pixels of the image and reducing at least one of the acquired image and the monitoring image;
The image reduction means is configured to reduce the acquired image or the acquired image and the monitoring image in a region including the object image in the acquired image compared to a region including the object image in the monitoring image. The image processing apparatus according to claim 1, wherein the image processing apparatus is reduced so as to have a high reduction ratio.
前記取得画像と前記対象物画像とを含む監視用画像とを並べて配置した配置画像を生成し、
前記取得画像、前記監視用画像、及び前記配置画像のうち少なくとも何れか一つを送信する送信手段を備えることを特徴とする請求項1乃至5の何れか一つに記載の画像処理装置。 The monitoring image generation means includes
Generating an arrangement image in which the acquired image and the monitoring image including the object image are arranged side by side;
The image processing apparatus according to claim 1, further comprising a transmission unit configured to transmit at least one of the acquired image, the monitoring image, and the arrangement image.
前記取得画像上に前記対象物画像を含む監視用画像を重ね合わせて配置した重ね合わせ画像を生成し、
前記取得画像、前記監視用画像、及び前記重ね合わせ画像のうち少なくとも何れか一つを送信する送信手段を備えることを特徴とする請求項1乃至5の何れか一つに記載の画像処理装置。 The monitoring image generation means includes
Generating a superimposed image in which the monitoring image including the object image is superimposed on the acquired image,
The image processing apparatus according to claim 1, further comprising: a transmission unit that transmits at least one of the acquired image, the monitoring image, and the superimposed image.
画像を取得する処理と、
前記画像を取得する処理によって取得された取得画像に含まれる、対象物の対象物画像を抽出する処理と、
前記対象物の対象物画像を抽出する処理によって抽出された1以上の対象物画像を配置した監視用画像を生成する処理と、
複数の取得画像に同一の対象物の対象物画像が含まれるとき、前記各取得画像を用いて生成される各監視用画像に含まれる同一の位置に、前記同一の対象物の対象物画像を配置する処理とを備えたことを特徴とする画像処理方法。 An image processing method executed by a computer,
Processing to acquire images,
A process of extracting a target object image included in the acquired image acquired by the process of acquiring the image;
A process of generating a monitoring image in which one or more object images extracted by the process of extracting the object image of the object are arranged;
When object images of the same object are included in a plurality of acquired images, the object image of the same object is placed at the same position included in each monitoring image generated using each acquired image. An image processing method comprising: arranging processing.
前記画像を取得する処理によって取得された取得画像に含まれる、対象物の対象物画像を抽出する処理と、
前記対象物の対象物画像を抽出する処理によって抽出された1以上の対象物画像を配置した監視用画像を生成する処理と、
複数の取得画像に同一の対象物の対象物画像が含まれるとき、前記各取得画像を用いて生成される各監視用画像に含まれる同一の位置に、前記同一の対象物の対象物画像を配置する処理とをコンピュータに実行させることを特徴とする画像処理プログラム。
Processing to acquire images,
A process of extracting a target object image included in the acquired image acquired by the process of acquiring the image;
A process of generating a monitoring image in which one or more object images extracted by the process of extracting the object image of the object are arranged;
When object images of the same object are included in a plurality of acquired images, the object image of the same object is placed at the same position included in each monitoring image generated using each acquired image. An image processing program that causes a computer to execute a process of arranging.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018095389A JP6997449B2 (en) | 2018-05-17 | 2018-05-17 | Image processing equipment, image processing method, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018095389A JP6997449B2 (en) | 2018-05-17 | 2018-05-17 | Image processing equipment, image processing method, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019201344A true JP2019201344A (en) | 2019-11-21 |
JP6997449B2 JP6997449B2 (en) | 2022-01-17 |
Family
ID=68613275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018095389A Active JP6997449B2 (en) | 2018-05-17 | 2018-05-17 | Image processing equipment, image processing method, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6997449B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001320437A (en) * | 2000-05-02 | 2001-11-16 | Sony Corp | Data receiving device and method, data transmission apparatus and method |
JP2005269473A (en) * | 2004-03-22 | 2005-09-29 | Mitsubishi Electric Corp | Monitoring system |
JP2007158829A (en) * | 2005-12-06 | 2007-06-21 | Hitachi Kokusai Electric Inc | Image processor, and image processing method and program |
JP2014220723A (en) * | 2013-05-10 | 2014-11-20 | ソニー株式会社 | Display controller, display control method and program |
JP2018506788A (en) * | 2015-04-03 | 2018-03-08 | 三菱電機株式会社 | How to re-identify objects |
-
2018
- 2018-05-17 JP JP2018095389A patent/JP6997449B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001320437A (en) * | 2000-05-02 | 2001-11-16 | Sony Corp | Data receiving device and method, data transmission apparatus and method |
JP2005269473A (en) * | 2004-03-22 | 2005-09-29 | Mitsubishi Electric Corp | Monitoring system |
JP2007158829A (en) * | 2005-12-06 | 2007-06-21 | Hitachi Kokusai Electric Inc | Image processor, and image processing method and program |
JP2014220723A (en) * | 2013-05-10 | 2014-11-20 | ソニー株式会社 | Display controller, display control method and program |
JP2018506788A (en) * | 2015-04-03 | 2018-03-08 | 三菱電機株式会社 | How to re-identify objects |
Also Published As
Publication number | Publication date |
---|---|
JP6997449B2 (en) | 2022-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101513215B1 (en) | The analyzing server of CCTV images among behavior patterns of objects | |
US9807300B2 (en) | Display apparatus for generating a background image and control method thereof | |
US20190199898A1 (en) | Image capturing apparatus, image processing apparatus, control method, and storage medium | |
KR101570339B1 (en) | The predicting system for anti-crime through analyzing server of images | |
KR101937272B1 (en) | Method and Apparatus for Detecting Event from Multiple Image | |
US10713797B2 (en) | Image processing including superimposed first and second mask images | |
JP2007266652A (en) | Moving object detection device, moving object detection method, moving object detection program, video decoder, video encoder, imaging apparatus, and video management system | |
US20150334299A1 (en) | Monitoring system | |
JP2013066016A (en) | Outline extraction system, outline extraction device and outline extraction program | |
JPWO2016167016A1 (en) | Image processing apparatus, image processing method, and image processing system | |
JP6525934B2 (en) | Image processing apparatus and control method | |
KR20150112712A (en) | The analyzing server of cctv images among behavior patterns of objects | |
JP6997449B2 (en) | Image processing equipment, image processing method, program | |
KR101436283B1 (en) | The predicting system for anti-crime through analyzing server of images | |
US11270442B2 (en) | Motion image integration method and motion image integration system capable of merging motion object images | |
JP2012212235A (en) | Object detection system, object detection method, and program | |
JP2018190132A (en) | Computer program for image recognition, image recognition device and image recognition method | |
US10943103B2 (en) | Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium | |
KR101706217B1 (en) | Intelligent security surveillance apparatus and method thereof | |
KR101429006B1 (en) | Method for detecting motion area and device thereby | |
JP7322972B2 (en) | Object detection method | |
WO2019082474A1 (en) | Three-dimensional intrusion detection system and three-dimensional intrusion detection method | |
US11558548B2 (en) | Systems and methods for encoding regions containing an element of interest in a sequence of images with a high resolution | |
KR101938270B1 (en) | Image processing apparatus for monitoring moving objects | |
JP7004786B1 (en) | Detection device and detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6997449 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |