JP2019128791A - Image processing device and control method thereof - Google Patents
Image processing device and control method thereof Download PDFInfo
- Publication number
- JP2019128791A JP2019128791A JP2018009941A JP2018009941A JP2019128791A JP 2019128791 A JP2019128791 A JP 2019128791A JP 2018009941 A JP2018009941 A JP 2018009941A JP 2018009941 A JP2018009941 A JP 2018009941A JP 2019128791 A JP2019128791 A JP 2019128791A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving
- size
- setting
- detection area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、動体検出に係る画像処理技術に関するものである。 The present invention relates to an image processing technique related to moving object detection.
従来、カメラで撮像した映像を解析して人体などのオブジェクトを検出して計数(カウント)する技術が知られている。人体の検出処理を高速化するためには、映像に対して、検出処理を行う対象領域である検出エリア、および、検出対象となる人体サイズを限定する方法が有効である。そこで、実空間内に人が立っている様子を実際に撮像し、撮像により得られた映像を見ながら、ユーザーが検出エリア及び人体サイズを手動で設定する方法が考えられる。ただし、実空間内に人が立っている様子を実際に撮像するにあたっては、多くの人間を動員する必要があり、手間及びコストがかかるという問題がある。 2. Description of the Related Art Conventionally, a technique for detecting and counting (counting) an object such as a human body by analyzing an image captured by a camera is known. In order to speed up the human body detection process, it is effective to use a method for limiting the detection area, which is a target area for the detection process, and the human body size to be detected for the video. Therefore, a method is conceivable in which a user manually sets a detection area and a human body size while actually capturing an image of a person standing in real space and viewing an image obtained by the image capturing. However, when actually imaging a person standing in real space, it is necessary to mobilize many people, and there is a problem that it takes time and cost.
そこで、人が立っている様子を模倣した映像を作成することが考えられる。特許文献1では、領域内に移動体が入るように制御される撮影手段によって順次得られる複数のフレーム画像で構成される映像上に移動体の軌跡を重畳して出力画像を生成する表示装置が開示されている。また、特許文献2では、ユーザーにより指定された時間帯に動いた移動体の軌跡を強調表示する技術、ユーザーにより指定された移動速度よりも高速で動く移動体や低速で動く移動体を強調表示する技術が開示されている。
Therefore, it is conceivable to create a video that imitates a person standing. In Patent Document 1, there is provided a display device which generates an output image by superimposing a trajectory of a moving object on a video composed of a plurality of frame images sequentially obtained by imaging means controlled so that the moving object enters an area. It is disclosed. Further, in
しかしながら、上述の従来技術では、人体サイズを限定するために利用される最大サイズと最小サイズについては、ユーザーが映像を目視で確認し設定する必要がある。特に、人体検出処理を高速化するためには、画像内の検出エリアごとに人体サイズの最小サイズと最大サイズを設定する必要がある。そのため、設定には煩雑な操作が必要となりコスト効率が悪いという問題があった。 However, in the above-described conventional technology, it is necessary for the user to visually confirm and set the maximum size and the minimum size used for limiting the human body size. In particular, in order to speed up the human body detection process, it is necessary to set the minimum size and the maximum size of the human body size for each detection area in the image. For this reason, a complicated operation is required for setting, and there is a problem that the cost efficiency is low.
本発明はこのような課題を鑑みてなされたものであり、画像に含まれるオブジェクトを検出するためのパラメータを効率的に設定可能とする技術を提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a technique that can efficiently set parameters for detecting an object included in an image.
上述の課題を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、撮像装置による撮像映像において所定の動体を検出するための検出エリア及び該検出エリアにおける前記所定の動体の動体サイズを設定する画像処理装置は、
前記撮像装置から動画像を取得する取得手段と、
前記動画像に含まれる複数の画像それぞれから動体画像を抽出する第1の抽出手段と、
前記第1の抽出手段により抽出された複数の動体画像を重畳表示した重畳画像を生成する生成手段と、
前記重畳画像に基づいて前記検出エリアを設定する第1の設定手段と、
前記第1の抽出手段により抽出された複数の動体画像のうち前記検出エリアに含まれる動体画像を抽出する第2の抽出手段と、
前記第2の抽出手段により抽出された動体画像のうち最大サイズ及び最小サイズの動体画像を決定する決定手段と、
前記決定手段により決定された最大サイズ及び最小サイズの動体画像に基づいて、前記検出エリアにおける前記動体サイズを設定する第2の設定手段と、
を有する。
In order to solve the above-described problems, an image processing apparatus according to the present invention has the following configuration. That is, an image processing device for setting a detection area for detecting a predetermined moving object in a captured image by the imaging device and a moving object size of the predetermined moving object in the detection area,
Acquisition means for acquiring a moving image from the imaging device;
First extraction means for extracting a moving body image from each of a plurality of images included in the moving image;
Generation means for generating a superimposed image in which a plurality of moving body images extracted by the first extraction means are superimposed and displayed;
First setting means for setting the detection area based on the superimposed image;
Second extracting means for extracting a moving body image included in the detection area among the plurality of moving body images extracted by the first extracting means;
A determining unit that determines a moving object image of maximum size and minimum size among moving object images extracted by the second extracting unit;
Second setting means for setting the moving object size in the detection area based on the moving object image of the maximum size and the minimum size determined by the determining means;
Have.
本発明によれば、画像に含まれるオブジェクトを検出するためのパラメータを効率的に設定可能とする技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which enables the parameter for detecting the object contained in an image to be set efficiently can be provided.
以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。 Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. The following embodiment is merely an example and is not intended to limit the scope of the present invention.
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、撮像装置により取得された映像に含まれる動体(人体)を検出する画像処理システムを例に挙げて以下に説明する。特に、映像内の検出エリアにおける人体サイズの設定を効率化する手法について説明する。
First Embodiment
As a first embodiment of an image processing apparatus according to the present invention, an image processing system that detects a moving body (human body) included in an image acquired by an imaging apparatus will be described below as an example. In particular, a method for improving the efficiency of setting the human body size in the detection area in the video will be described.
<システム及び各装置の構成>
図1は、第1実施形態における画像処理システムの全体構成を示す図である。
<System and Configuration of Each Device>
FIG. 1 is a diagram illustrating an overall configuration of an image processing system according to the first embodiment.
撮像装置110は、撮像を行うネットワークカメラ等の撮像装置である。クライアント装置120は、撮像装置110の駆動、撮像装置110で撮像された撮像画像の表示を行うパーソナルコンピュータ、サーバ装置、タブレット装置等の情報処理装置である。
The
入力装置130は、マウスやキーボード等から構成され、クライアント装置120へのユーザー入力を行う。表示装置140は、ディスプレイ等から構成され、クライアント装置120が出力した画像の表示を行う。
The
ここでは、クライアント装置120と入力装置130と表示装置140とを各々独立した装置として示している。しかし、例えば、クライアント装置120と表示装置140とが、一体化されていてもよいし、入力装置130と表示装置140とが一体化されていてもよい。また、クライアント装置120と入力装置130と表示装置140とが、一体化されていてもよい。
Here, the
ネットワーク150は、撮像装置110とクライアント装置120とを相互に通信可能に接続する。ネットワーク150は、例えばローカルネットワーク等の通信規格を満たす複数のルータ、スイッチ、ケーブル等から構成される。ここでは、撮像装置110とクライアント装置120との間の通信を行うことができるものであればよく、その通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN、WAN(Wide Area Network)等により構成されても良い。また、クライアント装置120に接続される撮像装置110の数は1台に限られず、複数台であっても良い。
The
図2は、撮像装置のハードウェア構成及び機能構成を示す図である。図2(a)はハードウェア構成の一例、図2(b)は機能構成の一例をそれぞれ示している。 FIG. 2 is a diagram illustrating a hardware configuration and a functional configuration of the imaging apparatus. FIG. 2A shows an example of a hardware configuration, and FIG. 2B shows an example of a functional configuration.
撮像装置110はCPU211、主記憶装置212、補助記憶装置213、駆動部214、撮像部215、ネットワークI/F216を含む。各要素は、システムバス217を介して、相互に通信可能に接続されている。
The
CPU211は、撮像装置110の動作を制御する中央演算装置である。主記憶装置212は、CPU211のワークエリア、データの一時的な記憶場所として機能するランダムアクセスメモリ(RAM)等の記憶装置である。補助記憶装置213は、各種プログラム、各種設定データ等を記憶するハードディスクドライブ(HDD)、リードオンリーメモリ(ROM)、ソリッドステートドライブ(SSD)等の記憶装置である。駆動部214は、撮像装置110を駆動し、撮像装置110の姿勢等を変更させ、撮像部215の撮影方向及び画角を変更する駆動部である。
The
撮像部215は、被写体の画像を取得するための機能部であり、撮像素子と光学系とを有する。撮像素子には、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charged Coupled Device)等がある。ネットワークI/F216は、クライアント装置120等の外部の装置とのネットワーク150を介した通信に利用されるインターフェースである。
The
CPU211が、補助記憶装置213に記憶されたプログラムに基づき処理を実行することによって、後述する撮像装置110の機能及び処理が実現されることになる。
When the
撮像装置110は、機能構成として、撮像制御部231、信号処理部232、駆動制御部233、通信制御部234を含む。
The
撮像制御部231は、撮像部215を介して周囲の環境を撮影する。信号処理部232は、撮像制御部231によって撮影された画像の処理を行う。信号処理部232は、例えば、撮像制御部231によって撮影された画像の符号化を行う。静止画の場合は、信号処理部232は、例えば、JPEG(Joint Photographic Experts Group)等の符号化方式を用いて、画像の符号化を行う。また、動画の場合は、信号処理部232は、H.264/MPEG−4 AVC(以下では、単にH.264と呼ぶ)、HEVC(High Efficiency Video Coding)等の符号化方式を用いて、画像の符号化を行う。なお、信号処理部232は、予め設定された複数の符号化方式の中から、例えば撮像装置110の操作部を介してユーザーにより選択された符号化方式を用いて、画像の符号化を行うようにしてもよい。
The
駆動制御部233は、駆動部214を介して、撮像制御部231の撮影方向及び画角を変更させる制御を行う。ただし、撮像制御部231による撮影方向と画角とのうちの何れか1つのみを変更する構成としてもよい。また、撮像制御部231の撮影方向及び画角は、固定であってもよい。通信制御部234は、撮像制御部231により撮影され、信号処理部232により処理された画像を、ネットワークI/F216を介して、クライアント装置120に送信する。また、通信制御部234は、ネットワークI/F216を介して、クライアント装置120から撮像装置110に対する制御命令を受信する。
The
図3は、クライアント装置のハードウェア構成及び機能構成を示す図である。図3(a)はハードウェア構成の一例、図3(b)は機能構成の一例をそれぞれ示している。 FIG. 3 is a diagram illustrating a hardware configuration and a functional configuration of the client apparatus. FIG. 3A shows an example of a hardware configuration, and FIG. 3B shows an example of a functional configuration.
クライアント装置120は、CPU221、主記憶装置222、補助記憶装置223、入力I/F224、出力I/F225、ネットワークI/F226を含む。各要素は、システムバス227を介して、相互に通信可能に接続されている。
The
CPU221は、クライアント装置120の動作を制御する中央演算装置である。主記憶装置222は、CPU221のワークエリア、データの一時的な記憶場所として機能するRAM等の記憶装置である。補助記憶装置223は、各種プログラム、各種設定データ等を記憶するHDD、ROM、SSD等の記憶装置である。入力I/F224は、入力装置130等からの入力を受付ける際に利用されるインターフェースである。出力I/F225は、表示装置140等への情報の出力に利用されるインターフェースである。ネットワークI/F216は、撮像装置110等の外部の装置とのネットワーク150を介した通信に利用されるインターフェースである。
The
CPU221が、補助記憶装置223に記憶されたプログラムに基づき処理を実行することによって、後述するクライアント装置120の機能及び処理が実現されることになる。
When the
クライアント装置120は、機能構成として、入力情報取得部241、通信制御部242、画像取得部243、検出部244、映像録画部245、動体取得部246、描画部247、表示制御部248を含む。
The
入力情報取得部241は、入力装置130を介したユーザーによる入力を受け付ける。通信制御部242は、撮像装置110から送信された画像を、ネットワーク150を介して受信する。また、通信制御部242は、撮像装置110への制御命令を、ネットワーク150を介して送信する。画像取得部243は、通信制御部242を介して、撮像装置110により撮影された画像を、被写体の検出処理の対象である画像として取得する。また、画像取得部243は、補助記憶装置223に記憶されている画像を、被写体の検出処理の対象である画像として取得しても良い。なお、ここで画像とは、動画(複数のフレーム画像)であってもよいし静止画であってもよい。
The input
検出部244は、画像取得部243により取得された画像に対して、画像特徴に基づく被写体の検出処理を行う。映像録画部245は、撮像装置110により撮影しているリアルタイム映像をユーザーからの入力に応じて録画する。動体取得部246は映像録画部で取得された映像から動体を動体差分によって切り出す。しかしこの限りではなく、補助記憶装置223内にある事前に録画した映像に対して処理を行ってもよい。
The
表示画像生成部247は、動体取得部246で取得された動体のフレーム画像を既定間隔毎に重畳された画像を生成する。また、表示画像生成部247は、検出エリア内に含まれるフレームを抽出するとともに、当該フレームの中から最大と最小のフレームを抽出する。そして、取得された最大、最小サイズのフレームを強調して背景画像に重畳した映像を生成する。表示制御部248は、CPU221からの指示に従い、被写体の検出結果や動体のフレームの重畳結果を表示装置140へ出力する。
The display
なお、ここでは、クライアント装置120が、撮像装置110から撮像画像を取得し当該撮像画像に対して処理を行う形態について説明するが、処理を撮像装置110内で行うよう構成してもよい。
Here, a mode is described in which the
<システムの動作>
上述したように、クライアント装置120は、撮像装置110から取得した撮像画像に対し人体検出を行う。具体的には、1以上の検出エリアを設定し、設定した検出エリアごとに最大、最小の人体サイズを設定し、設定された人体検出処理を行う。
<System operation>
As described above, the
図4は、撮像画像に対する検出エリア及び人体サイズの設定を説明する図である。具体的には、基準とする撮像画像を取得し、当該撮像画像を参照して検出エリアや人体サイズを設定する。 FIG. 4 is a diagram for explaining setting of a detection area and a human body size for a captured image. Specifically, a captured image as a reference is acquired, and the detection area and the human body size are set with reference to the captured image.
図4(a)は、撮像装置200が被写体を撮像する様子を示した図である。被写体210、211、220、221は、4人の人間を示している。すなわち、図4(a)は、撮像装置200に相対的に近い位置に被写体210、211が存在し、相対的に遠い位置に被写体220、221が存在しているシーンを表している。
FIG. 4A is a diagram showing how the
図4(b)は、図4(a)に示す状態で撮像装置200により撮像されクライアント装置において表示される表示画像を例示的に示す図である。表示画像230上のオブジェクト240,241、250、251は撮像内に映る人体映像である。オブジェクト240は図4(a)の被写体210の撮像映像であり、同様にオブジェクト241は被写体211、オブジェクト250は被写体220の、オブジェクト251は被写体221の撮像映像である。
FIG. 4B is a diagram exemplarily showing a display image captured by the
ユーザーは、クライアント装置において表示された表示画像230を目視して検出エリアを設定する。例えば、人体映像240、241、250、251の上半身を含むように検出エリアを枠で囲むように設定する。ここで、上半身映像を含むように設定するのは、人体の検出時に人体の特徴画像を元にしたマッチング処理に都合がよいからである。
The user visually sets the detection area by visually observing the
図4(b)の矩形領域260、270はユーザーが設定した検出エリアである。なお、検出エリアの大きさはカウントしたい検出エリアの面積に応じて任意に変更可能である。したがって、検出エリアの大きさに応じて必要となる被写体数が変わる場合もある。さらに、図4(b)では2か所の検出エリアを指定しているが、カウントしたい検出エリアの数に応じて設定を増減できる。
図4(c)は、人体サイズ設定のユーザーインタフェース(UI)を表した図である。ユーザーは、当該UIを介して、各検出エリアに対して人体サイズの設定を行う。 FIG. 4C is a view showing a user interface (UI) of human body size setting. The user sets the human body size for each detection area via the UI.
人体モデル280、281、290、291は、人体サイズ設定用のモデルである。ユーザーは人体モデル280、281、290、291をマウスで操作することによって人体サイズを設定することができる。
例えば、検出エリア260に対しては人体モデル280及び281を操作して動体サイズ(人体サイズ)を設定することができる。ここでは、人体モデル280を操作して最大の人体サイズを、人体モデル281を操作して最小の人体サイズを設定することを想定する。同様に、検出エリア270に対しては人体モデル290及び291を操作して最大及び最小の人体サイズを設定することができる。
For example, the moving body size (human body size) can be set for the
しかしながら、上述の方法では実空間に人を立たせる必要が生じため人件費によるコストが増加することになる。また、各検出エリアの最大と最小の人体をユーザーが目視で見つけるといった手間が生じることになる。そこで、第1実施形態では、検出エリア設定と人体サイズ設定を効率化するために、検出エリア内における人体の最大サイズ・最小サイズを取得し、強調表示する方法について説明する。 However, in the above-mentioned method, it is necessary to set people in the real space, which increases the cost due to the labor cost. In addition, it takes time for the user to visually find the maximum and minimum human bodies in each detection area. Therefore, in the first embodiment, in order to streamline detection area setting and human body size setting, a method of acquiring and highlighting the maximum size and the minimum size of the human body in the detection area will be described.
図5は、第1実施形態における画像処理システムの動作を示すフローチャートである。すなわち、人体の最大サイズと最小サイズを抽出して強調表示する処理の流れを示している。 FIG. 5 is a flowchart showing the operation of the image processing system in the first embodiment. That is, the flow of processing for extracting and highlighting the maximum size and the minimum size of the human body is shown.
S301では、撮像装置110は、移動している人間を撮像し、得られた動画像をクライアント装置120内のメモリ223内に格納する。
In step S <b> 301, the
図6は、動体の動き及び検出エリアの設定を説明する図である。図6(a)は、撮像装置110で撮像された録画映像の一例を示す図である。この映像は被写体である人体501が時間と共に空間内を矢印の示す向きに移動している様子を示したものである。
FIG. 6 is a diagram for explaining the movement of the moving object and the setting of the detection area. FIG. 6A is a diagram illustrating an example of a recorded video imaged by the
S302では、動体取得部246は、S301で取得された録画映像を用いて、動体差分により、動体画像(移動する被写体を含むフレーム)を所定の時間間隔毎に切り出す。そして、表示画像生成部247は、背景画像にフレーム512を重畳した画像を作成する。
In step S302, the moving
図6(b)は、フレーム512を所定の時間間隔毎に取得し、そのすべてをフレーム群513として重畳表示した様子を表す図である。なお、複数のフレームを1枚の画像に重畳するのは、検出エリアの設定時に同じ大きさの動体のフレームを1つの検出エリアとして設定する際における、ユーザー側の視認性を高めるためである。最後に、表示制御部248は、表示画像生成部247によって作成された重畳画像を表示装置140に表示する。なお、表示装置140には動体のフレーム512がその動体を含む最小の矩形として表示される。また、ここでは、各フレームは、図6(b)に示すように時系列順に重畳表示される。そのため、奥から手間に動体が移動する場合、新しいフレームは古いフレームの前方に重なって表示される。各フレームは後で説明する透過率の変更を考慮するため、PNG(Portable Network Graphics)画像とする。
FIG. 6B is a diagram illustrating a state in which the
S303では、入力情報取得部241は、ユーザーの設定した検出エリア情報を取得する。すなわち、ユーザーは、S302により取得された重畳画像を目視しながら手動で検出エリアを設定し、入力情報取得部241は、その設定内容を受け付ける。
In S303, the input
図6(c)はユーザーが検出エリア601を設定した状態を表した図である。検出エリアの設定方法は前述したとおりである。なお、ここでは検出エリアを1つのみ指定しているが複数指定してもよい。すなわち、複数の検出エリアを設定し、検出エリア毎に解析することもできる。さらに、各検出エリアをさらに複数の小領域に分割することもできる。この場合、複数の小領域が点在していても同一の検出エリアであればその検出エリアに適用した設定で解析処理が行われることになる。
FIG. 6C shows the state in which the user has set the
S304では、表示画像生成部は、S303でユーザーが設定した検出エリア内に動体(人体)が含まれるフレーム画像を抽出する。抽出は、例えば、検出エリアの範囲内にフレームの上半身が含まれているか判定することで行う。図6(d)は検出エリア601内に含まれるフレーム画像を抽出した様子を示す図である。ここでは検出エリア601内に存在するフレーム611、612、613を抽出している。これにより検出エリア外のフレーム画像は後の処理の対象外となる。
In S304, the display image generation unit extracts a frame image in which a moving body (human body) is included in the detection area set by the user in S303. The extraction is performed, for example, by determining whether the upper half of the frame is included in the range of the detection area. FIG. 6D is a diagram illustrating a state in which frame images included in the
S305では、表示画像生成部247は、検出エリア内から最大・最小サイズのフレームを抽出する。具体的には、検出エリア内の各フレームは矩形として既に切り出されているので、最も大きい矩形のフレームを最大サイズとして、最も小さい矩形のフレームを最小サイズとして抽出する。ここでは、最大サイズのフレームとしてフレーム611が、最小サイズのフレームとしてフレーム613が抽出される。
In S305, the display
S306では、表示画像生成部247は、強調されたフレームを背景画像に重畳した画像を生成する。そして、表示制御部248は表示画像生成部247によって作成された画像を表示装置140に表示する。
In S306, the display
図7は、最大・最小サイズの取得を説明する図である。検出エリア601内に属するフレーム画像のうち、最大サイズのフレーム701と最小サイズのフレーム702が強調表示された画像を例示的に示している。
FIG. 7 is a diagram for explaining acquisition of the maximum and minimum sizes. Of the frame images belonging to the
ここでは、フレームを強調表示するために最大サイズであるフレーム701と最小サイズであるフレーム702の透過率を低め、それ以外のフレームの透過率を高めるという手法をとる。なお、透過率に関してはユーザーが最大サイズ・最小サイズのフレームとそれ以外のフレームに対し、任意の値を設定できる。例えば、最大サイズ・最小サイズのフレームのみ注目したい場合は、最大・最小サイズの透過率を”0”とし、それ以外のフレームの透過率を”100”とするとよい。
Here, in order to highlight a frame, the transmittance of the
なお、フレームを強調表示する手法は上述の透過率の制御以外の手法も使用可能である。例えば、最大サイズとなるフレーム701と最小サイズとなるフレーム702の輪郭を太くすることで強調することもできる。また、上述のようにフレームは時系列順で重畳されているので、最大・最小サイズのフレームを最前面に表示するよう制御することで強調することも可能である。
In addition, methods other than the control of the above-mentioned transmittance | permeability can also be used for the method of highlighting a flame | frame. For example, emphasis can be achieved by thickening the outline of the
S307では、表示画像生成部247は、人体サイズ設定用の人体モデルが背景画像に重畳表示された人体サイズ設定画面を生成する。当該処理は、例えば、ユーザーが不図示の人体サイズ設定ボタンを押下することにより実行される。
In S307, the display
図8は、人体サイズの設定を説明する図である。すなわち、表示画像生成部247が生成した人体サイズ設定画面を例示的に示す図である。人体モデル801、802は人体の上半身に模したモデルである。上述したように、ユーザーが人体モデル801、802をマウス操作により拡縮することにより人体サイズを設定することができる。なお人体サイズの設定方法はこの限りでなく、例えば、人体モデルを選択状態にし、キーボード上のupボタン、Downボタンを使用することで大小調整してもよい。また、S305で取得された最大・最小フレームから自動で人体サイズを決定し、検出エリアの近辺に重畳することも可能である。ユーザーが人体サイズを設定すると、入力情報取得部241はユーザーによって設定された人体サイズの最大サイズと最小サイズを取得する。
FIG. 8 is a diagram for explaining setting of the human body size. That is, it is a diagram exemplarily showing a human body size setting screen generated by the display
S308では、入力情報取得部241は、他の検出エリアがあるか否かを判定する。他に検出エリアの設定がなければ処理を終了し、検出エリアの設定が他に存在する場合はS303に戻って処理を繰り返す。
In S308, the input
以上説明したとおり第1実施形態によれば、表示装置140に出力される動体のフレームの重畳映像を用いることにより、検出エリアの設定の効率化が可能となる。また、重畳映像における検出エリアに含まれる最大サイズ及び最小サイズのフレームを強調表示することにより、人体サイズの設定の効率化が可能となる。すなわち、人体サイズの設定時に必要であった人手や設定時の手間を大幅に軽減することができる。
As described above, according to the first embodiment, it is possible to increase the efficiency of setting the detection area by using the superimposed video of the moving object frame output to the
(第2実施形態)
第2実施形態では、最大サイズ及び最小サイズのフレームの取得処理(S305)について更に詳細に説明する。具体的には、映像に人体以外のオブジェクトが含まれており、人体以外のオブジェクトが、最大サイズ又は最小サイズのフレームとして取得された場合の処理について説明する。なお、システム及び各装置の構成については第1実施形態(図1〜図3)と同様であるため説明は省略する。
Second Embodiment
In the second embodiment, acquisition processing (S305) of a frame of maximum size and minimum size will be described in more detail. Specifically, a process when an object other than a human body is included in a video and an object other than a human body is acquired as a frame having a maximum size or a minimum size will be described. The configuration of the system and each device is the same as that of the first embodiment (FIGS. 1 to 3), and thus the description thereof is omitted.
<システムの動作>
システムの全体動作については第1実施形態(図5)と同様であるため詳細な説明は省略する。上述の通り、第2実施形態では、最大サイズ・最小サイズのフレームの取得処理(S305)が第1実施形態と異なる。
<System operation>
Since the overall operation of the system is the same as that of the first embodiment (FIG. 5), detailed description thereof is omitted. As described above, in the second embodiment, acquisition processing (S305) of a frame of maximum size / minimum size is different from that of the first embodiment.
撮像装置110が、移動している人間、および、人体以外の被写体を撮像して録画映像としてクライアント装置120内のメモリ223内に格納すると、第1実施形態と同様の処理が開始される。S301〜S304は、第1実施形態と同様である。ただし、S304においては、人体以外のオブジェクトが抽出されている点が第1実施形態と異なる。
When the
図10は、候補フレームを表示する各種GUIを例示的に示す図である。図10(a)は第2実施形態においてS304において抽出されたフレームの重畳映像の一例を示す図である。当該映像には、人体611〜613、および、人体以外の被写体901である鳥の画像が含まれている。
FIG. 10 is a diagram exemplarily showing various GUIs for displaying candidate frames. FIG. 10A is a diagram illustrating an example of the superimposed video of the frame extracted in S304 in the second embodiment. The video includes
図9は、第2実施形態における最大サイズ・最小サイズのフレームの取得処理を示すフローチャートである。 FIG. 9 is a flowchart showing acquisition processing of a frame of maximum size and minimum size in the second embodiment.
S401では、表示画像生成部247は、最小サイズのフレームを最小人体サイズの候補として取得し、最大・最小サイズ確認画面920を生成する。そして、表示制御部248は、最大・最小サイズ確認画面920を表示装置140に表示する。ここで、最大・最小サイズ確認画面920は、フレームが人体を含んでいるか否かをユーザーに判定させるためのUIである。最大・最小サイズ確認画面920は、例えば、S304において抽出されたフレームの重畳映像に隣接して表示される。
In S401, the display
図10(b)は、S304において抽出されたフレームの重畳映像と最大・最小サイズ確認画面920とが表示されたUIの一例を示す図である。最大・最小サイズ確認画面920は最小人体サイズ候補枠921と最大人体サイズ候補枠922によって構成される。
FIG. 10B is a diagram illustrating an example of a UI on which the superimposed video of the frame extracted in S304 and the maximum / minimum
最小人体サイズ候補枠921は、取得された最小サイズのフレームが表示され、最大人体サイズ候補枠922は、取得された最大サイズのフレームが表示される。ここでは、被写体901が最小フレーム候補として最小人体サイズ候補枠921にオブジェクト923として表示されている。
The minimum human body
S402では、表示画像生成部247は、人体を含むフレームであるか否かのユーザーの判定結果を取得する。具体的には、ユーザーは、最小人体サイズ候補枠921に表示されている画像を目視で確認する。そして、最小人体サイズ候補枠921に表示されている画像が人体を含むと判定した場合、ユーザーは確定ボタン(不図示)を押下する。一方、最小人体サイズ候補枠921に表示されている画像が人体を含まないと判定した場合、ユーザーは矢印ボタン924を押下する。
In S402, the display
S403では、表示画像生成部247は、S402におけるユーザーの判定結果を解析する。ここでは、ユーザーにより矢印ボタン924が押下されたと解析された場合、オブジェクトの誤検出が発生していると判定し、処理はS404に進む。一方、確定ボタンが押下されたと判定された場合、オブジェクトの誤検出が発生していない判定し、処理はS405に進む。
In S403, the display
S404では、表示画像生成部247は、現在選択されている被写体911の次に小さな次候補の被写体(ここでは被写体931)を表示する。図10(c)は次候補の被写体が表示された状態を示す図である。ここでは、新たに最小人体サイズの候補943が最小人体サイズ候補枠921に表示されている。そして、処理はS402に戻り、ユーザーは人体を含むフレームであるかの判定を行う。この処理により、人体を含まないフレームは最小人体サイズから除外されることになる。
In S <b> 404, the display
S405では、表示画像生成部247は、最大サイズのフレームを最大人体サイズの候補として取得し、最大・最小サイズ確認画面920を生成する。S405〜S408に示す最大サイズのフレームの取得処理は、最小サイズのフレームの取得処理(S401〜S404)と同様であるため説明を省略する。
In S405, the display
図10(d)は、S304において抽出されたフレームの重畳映像と最大・最小サイズ確認画面920とが表示されたUIの一例を示す図である。ここでは、被写体611が最大フレーム候補として最大人体サイズ候補枠922にオブジェクト964として表示されている。
FIG. 10D is a diagram illustrating an example of a UI on which the superimposed video of the frame extracted in S304 and the maximum / minimum
上述の処理により、映像内に人体以外のオブジェクトが含まれている場合においても、人体の最大サイズ及び最小サイズを適切に取得することが出来る。その後、処理はS306に進む。すなわち、表示画像生成部247は、強調されたフレームを背景画像に重畳した画像を生成する。そして、表示制御部248は、重畳画像を表示装置140に表示する。
With the above-described processing, even when an object other than the human body is included in the video, the maximum size and the minimum size of the human body can be appropriately acquired. Thereafter, the processing proceeds to step S306. That is, the display
以上説明したとおり第2実施形態によれば、映像内に人体以外のオブジェクトが含まれている場合においても、検出エリアの設定及び人体サイズの設定の効率化が可能となる。 As described above, according to the second embodiment, it is possible to make the setting of the detection area and the setting of the human body size more efficient even when the image includes an object other than the human body.
(変形例)
上述の説明においては、動体取得部246はS302において、所定の時間間隔の複数のフレームを重畳表示したが、他の表示手法を用いてもよい。例えば、フレームの時間間隔を変更可能とする表示方法でもよい。
(Modification)
In the above description, the moving
図11は、フレーム重畳枚数(重畳数)の調整を説明する図である。具体的には、単位時間当たりの動体(ここでは人体)の移動量とそれに応じて表示されるフレーム群の関係性を示した図である。なお、単位時間当たりの移動量は一定時間当たりのピクセル移動量から算出される。 FIG. 11 is a diagram for explaining the adjustment of the number of superimposed frames (the number of superimposed frames). Specifically, it is a diagram showing the relationship between the amount of movement of a moving object (here, a human body) per unit time and the frame group displayed accordingly. The movement amount per unit time is calculated from the pixel movement amount per fixed time.
フレーム表示映像1001は、単位時間当たりの動体の移動量が小さい場合のフレーム重畳例である。この場合、重畳枚数が多すぎるため、ユーザーに検出エリア設定時、人体サイズの設定時に煩わしさを与えてしまう。また、フレーム表示部1021は、単位時間あたりの動体の移動量が大きい場合のフレーム重畳例である。この場合、人をカウントしたい検出エリアを把握することが難しく、検出エリア設定と人体サイズ設定が困難である。そのため、フレーム表示映像1011に示されるように、単位時間あたりの移動量が適当であり、各フレームが視認しやすく配置された映像として表示することが望ましい。
The
そこで、動体取得部246は、動体の移動速度に応じて表示するフレーム数を調整する。ここで、動体の移動速度は、一定時間あたりのピクセル換算による移動量で算出される。例えば、フレーム表示映像1001に示される状況においては、フレームの枚数が多いため、フレーム数を間引くよう調整する。一方、フレーム表示映像1021に示される状況においては、フレームの枚数が少なくフレーム間隔が広がってしまうため、フレーム数を増加させるよう調整する。これらの調整により、ユーザーの視認性を考慮したより好適な重畳表示を提供することが可能となる。
Therefore, the moving
なお、上述の調整を動体取得部246が自動で行うよう構成してもよいし、ユーザーからの調整指示を受けつけるよう構成してもよい。例えば、ユーザーが手動でフレームの表示間隔を設定できるように、表示画像生成部247は表示間隔設定画面(不図示)を表示するとよい。
The moving
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
110 撮像装置; 120 クライアント装置; 130 入力装置; 140 表示装置; 150 ネットワーク 110 imaging device; 120 client device; 130 input device; 140 display device; 150 network
Claims (11)
前記撮像装置から動画像を取得する取得手段と、
前記動画像に含まれる複数の画像それぞれから動体画像を抽出する第1の抽出手段と、
前記第1の抽出手段により抽出された複数の動体画像を重畳表示した重畳画像を生成する生成手段と、
前記重畳画像に基づいて前記検出エリアを設定する第1の設定手段と、
前記第1の抽出手段により抽出された複数の動体画像のうち前記検出エリアに含まれる動体画像を抽出する第2の抽出手段と、
前記第2の抽出手段により抽出された動体画像のうち最大サイズ及び最小サイズの動体画像を決定する決定手段と、
前記決定手段により決定された最大サイズ及び最小サイズの動体画像に基づいて、前記検出エリアにおける前記動体サイズを設定する第2の設定手段と、
を有することを特徴とする画像処理装置。 An image processing device for setting a detection area for detecting a predetermined moving object in a captured image by an imaging device and a moving object size of the predetermined moving object in the detection area,
Acquisition means for acquiring a moving image from the imaging device;
First extraction means for extracting a moving body image from each of a plurality of images included in the moving image;
Generation means for generating a superimposed image in which a plurality of moving body images extracted by the first extraction means are superimposed and displayed;
First setting means for setting the detection area based on the superimposed image;
Second extracting means for extracting a moving body image included in the detection area among the plurality of moving body images extracted by the first extracting means;
A determining unit that determines a moving object image of maximum size and minimum size among moving object images extracted by the second extracting unit;
Second setting means for setting the moving object size in the detection area based on the moving object image of the maximum size and the minimum size determined by the determining means;
An image processing apparatus comprising:
ことを特徴とする請求項1に記載の画像処理装置。 The first setting unit includes a first display unit that displays the superimposed image and displays a user interface (UI) that receives a setting of the detection area from a user. Image processing device.
ことを特徴とする請求項1又は2に記載の画像処理装置。 The second setting means displays a user interface (UI) for displaying the moving body image of the maximum size and the minimum size determined by the determining means and receiving the setting of the moving body size from the user. The image processing apparatus according to claim 1, further comprising:
ことを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the second display unit highlights the moving body images having the maximum size and the minimum size determined by the determination unit.
ことを特徴とする請求項4に記載の画像処理装置。 The second display means performs the highlighting by making the transmittance of the moving image of the maximum size and the minimum size determined by the determining means relatively lower than the transmittance of the other moving image. The image processing apparatus according to claim 4, wherein
前記判定手段により前記所定の動体を含まないと判定された動体画像を前記最大サイズ及び最小サイズの動体画像から除外する除外手段と、
を更に有することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。 Determining means for determining whether or not the maximum size and minimum size moving body images determined by the determining means include a predetermined moving body;
Excluding means for excluding the moving body image determined not to include the predetermined moving body from the maximum size and the minimum size moving body image by the determining means;
The image processing apparatus according to any one of claims 1 to 5, further comprising:
ことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a control unit that controls the number of superimposed moving body images in the superimposed image.
ことを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the control unit controls the number of superimpositions based on a moving amount of a moving object per unit time in the moving image.
ことを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 8, wherein the predetermined moving body is a human body.
前記撮像装置から動画像を取得する取得工程と、
前記動画像に含まれる複数の画像それぞれから動体画像を抽出する第1の抽出工程と、
前記第1の抽出工程により抽出された複数の動体画像を重畳表示した重畳画像を生成する生成工程と、
前記重畳画像に基づいて前記検出エリアを設定する第1の設定工程と、
前記第1の抽出工程により抽出された複数の動体画像のうち前記検出エリアに含まれる動体画像を抽出する第2の抽出工程と、
前記第2の抽出工程により抽出された動体画像のうち最大サイズ及び最小サイズの動体画像を決定する決定工程と、
前記決定工程により決定された最大サイズ及び最小サイズの動体画像に基づいて、前記検出エリアにおける前記動体サイズを設定する第2の設定工程と、
を含むことを特徴とする画像処理装置の制御方法。 A control area of an image processing apparatus for setting a detection area for detecting a predetermined moving object in an image captured by an imaging apparatus and a moving object size of the predetermined moving object in the detection area,
An acquisition step of acquiring a moving image from the imaging device;
A first extraction step of extracting a moving object image from each of a plurality of images included in the moving image;
A generation step of generating a superimposed image in which a plurality of moving body images extracted by the first extraction step are superimposed and displayed;
A first setting step of setting the detection area based on the superimposed image;
A second extraction step of extracting a moving body image included in the detection area among a plurality of moving body images extracted by the first extraction step;
A determining step of determining a maximum size and a minimum size moving image among the moving images extracted by the second extraction step;
A second setting step of setting the moving body size in the detection area based on the moving body images of the maximum size and the minimum size determined by the determining step;
And controlling the image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018009941A JP2019128791A (en) | 2018-01-24 | 2018-01-24 | Image processing device and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018009941A JP2019128791A (en) | 2018-01-24 | 2018-01-24 | Image processing device and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019128791A true JP2019128791A (en) | 2019-08-01 |
Family
ID=67472383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018009941A Pending JP2019128791A (en) | 2018-01-24 | 2018-01-24 | Image processing device and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019128791A (en) |
-
2018
- 2018-01-24 JP JP2018009941A patent/JP2019128791A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101800617B1 (en) | Display apparatus and Method for video calling thereof | |
WO2016187985A1 (en) | Photographing device, tracking photographing method and system, and computer storage medium | |
JP6182607B2 (en) | Video surveillance system, surveillance device | |
JP2009194644A (en) | Image processor, image processing method and image pick-up device | |
US20150334299A1 (en) | Monitoring system | |
US20190246048A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2016213677A (en) | Remote communication system, and control method and program for the same | |
JP2020095611A (en) | Information processing unit, system, control method of information processing unit, and program | |
JP2019176306A (en) | Monitoring system and control method therefor, and program | |
JP4348028B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and computer program | |
JP7371076B2 (en) | Information processing device, information processing system, information processing method and program | |
US20190130677A1 (en) | Information processing apparatus, information processing method, imaging apparatus, network camera system, and storage medium | |
JP4649640B2 (en) | Image processing method, image processing apparatus, and content creation system | |
US10990802B2 (en) | Imaging apparatus providing out focusing and method for controlling the same | |
JP6700706B2 (en) | Information processing apparatus, information processing method, and program | |
JP2019128791A (en) | Image processing device and control method thereof | |
JP6004978B2 (en) | Subject image extraction device and subject image extraction / synthesis device | |
CN110647792B (en) | Information processing apparatus, control method, and storage medium | |
JP6700672B2 (en) | Remote communication system, its control method, and program | |
JP2009009206A (en) | Extraction method of outline inside image and image processor therefor | |
JP2013251656A (en) | Image processor | |
US20190171887A1 (en) | Information processing device, information processing method, and storage medium | |
US12063432B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6580213B1 (en) | Image processing apparatus, photographing apparatus, image processing method, and program | |
JP5055462B2 (en) | Image processing apparatus, image processing method, and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |