JP2019097020A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2019097020A JP2019097020A JP2017224564A JP2017224564A JP2019097020A JP 2019097020 A JP2019097020 A JP 2019097020A JP 2017224564 A JP2017224564 A JP 2017224564A JP 2017224564 A JP2017224564 A JP 2017224564A JP 2019097020 A JP2019097020 A JP 2019097020A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- detection unit
- object detection
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
この発明は、監視対象領域を撮像する撮像装置に関するものである。 The present invention relates to an imaging device for imaging a monitoring target area.
従来の撮像装置として、監視対象領域を撮像して得られた生画像データから人物の顔を検出し、当該生画像データから顔画像を切り出し、符号化して外部に送信するものがある(例えば、特許文献1参照)。 As a conventional imaging apparatus, there is one that detects a human face from raw image data obtained by imaging a monitoring target area, cuts out a face image from the raw image data, encodes it, and transmits it to the outside (for example, Patent Document 1).
従来の撮像装置は、複数の人物の顔を検出した場合、顔画像の送信順序が規定されていないため、重要度の低い顔画像が先に送信されてしまうことがあるという課題があった。 The conventional imaging device has a problem in that when the faces of a plurality of persons are detected, the transmission order of the face images is not defined, so that face images with low importance may be transmitted first.
この発明は、上記のような課題を解決するためになされたもので、検出した所定の物体の画像を重要度の高い順序に送信できる撮像装置を得ることを目的とする。 The present invention has been made to solve the problems as described above, and it is an object of the present invention to obtain an imaging device capable of transmitting an image of a detected predetermined object in order of high importance.
この発明に係る撮像装置は、
監視対象領域を撮像し、生画像データを出力する撮像部と、
前記生画像データから所定の物体を検出し、検出した前記所定の物体のサイズ情報を出力する物体検出部と、
前記生画像データから前記物体検出部により検出された所定の物体の画像を切り出す画像切出部と、
同時刻に撮像された生画像データから前記画像切出部により切り出された複数の画像を、前記物体検出部から出力された当該画像に対応する物体のサイズ情報に基づき、サイズの大きい順に送信する送信部と
を備えるものである。
The imaging device according to the present invention is
An imaging unit that images a monitoring target area and outputs raw image data;
An object detection unit that detects a predetermined object from the raw image data and outputs size information of the detected predetermined object;
An image cutout unit that cuts out an image of a predetermined object detected by the object detection unit from the raw image data;
Based on the size information of an object corresponding to the image output from the object detection unit, the plurality of images cut out by the image extraction unit from the raw image data captured at the same time are transmitted in the order of large size And a transmitter.
この発明によれば、上記のように構成したので、監視対象領域を撮像する撮像装置において、検出した所定の物体の画像を重要度の高い順に送信できる。 According to the present invention, as configured as described above, in the imaging device for imaging the monitoring target area, it is possible to transmit the images of the detected predetermined object in the descending order of importance.
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る監視システム構成例を示す図である。
監視システムは、図1に示すように、監視対象領域を撮像する撮像装置10、撮像装置10が出力する画像を受信し画像処理を行う画像処理装置11を備えており、撮像装置10と画像処理装置11とは、Ethernet(登録商標)等のネットワークを介して接続される。図1では、監視対象領域に、人物12A、人物12B及び人物12Cが存在している。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an example of a monitoring system configuration according to
As shown in FIG. 1, the monitoring system includes an
撮像装置10は図示しない設置者によって、撮像対象となる人物や車両など被写体を撮像可能な位置に設置される。画像処理装置11が行う画像処理としては、例えば、画像に映っている人物の顔の特徴を算出し、特定の人物であるか否かを判断する顔認証等が挙げられる。図1では、撮像装置10は、人物12A、人物12B及び人物12Cを撮像している。ここで、人物12A、人物12B及び人物12Cは、いずれも撮像装置10の方向を向いており、立ち止まっている、または、図中左から右に(すなわち撮像装置10の方向に)向かって移動しているものとする。
The
図2は、この発明の実施の形態1に係る撮像装置10の構成の一例を示すブロック図である。
図2に示すように、撮像装置10は、集光部101、受光部102、物体検出部103、画像切出部104、符号化部105及び送信部106を備える。集光部101と受光部102とは、撮像部を構成する。
FIG. 2 is a block diagram showing an example of the configuration of the
As shown in FIG. 2, the
集光部101は、撮像対象の人物や車両などが発する、または、反射する光を集光し、受光部102に出力するものである。
The
受光部102は、集光部101から出力された光を、電気信号である非圧縮画像データ(生画像データ)に変換し、毎秒あたり所定の枚数の生画像データを、物体検出部103及び画像切出部104に出力するものである。
The
物体検出部103は、受光部102から出力された生画像データから、人物の顔など特定の物体を検出し、物体の生画像データ内での位置を示す座標情報(位置情報)及び物体の大きさを示す情報(サイズ情報)を、画像切出部104及び送信部106に出力するものである。
The
画像切出部104は、物体検出部103から出力された物体の生画像データ内での位置を示す座標情報と大きさの情報に基づき、受光部102から出力された生画像データから、物体検出部103が検出した物体を示す画像領域を切り出し、切り出した切出画像を、符号化部105に出力するものである。
The
符号化部105は、画像切出部104から出力された切出画像を符号化し、符号化された符号化画像を、送信部106に出力するものである。
The
送信部106は、符号化部105から出力された符号化画像を、当該符号化画像のサイズに基づき、図示しないネットワークを介して、画像処理装置11に出力するものである。
The transmitting
物体検出部103及び画像切出部104の各機能は、不揮発性メモリに格納されるプログラムを実行するCPU(Central Processing Unit)または専用のハードウェアにより実現される。
Each function of the
物体検出部103及び画像切出部104の各機能が専用のハードウェアにより実現される場合、当該の専用のハードウェアは、例えば、システムLSI(Large−Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
When each function of the
物体検出部103及び画像切出部104の各機能がCPUにより実現される場合、物体検出部103及び画像切出部104の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、物体検出部103及び画像切出部104の各機能は、不揮発性メモリに記録されたプログラムを読み出してメモリに割り当てて実行するCPUにより実現される。ここで、メモリとは、例えば、RAM(Random Access Memory)、不揮発性メモリとは、例えば、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、及びEEPROM(Electrically Erasable Programmable Read−Only Memory)等が該当する。
When each function of the
なお、物体検出部103及び画像切出部104の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、物体検出部103については専用のハードウェアでその機能を実現し、画像切出部104についてはCPUが不揮発性メモリに格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
The functions of the
集光部101は、例えば、レンズにより実現される。
受光部102は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子により実現される。
符号化部105は、例えば、FPGA及び映像処理IC(Integrated Circuit)により実現される。
送信部106は、例えば、FPGA及びネットワークインタフェースICにより実現される。
The
The
The
The transmitting
次に、撮像装置10の基本的な動作について、図2を参照しながら説明する。
集光部101は人物12A、人物12B及び人物12Cが反射する光を集光し受光部102に出力する。受光部102は集光部101から出力された光を電気信号に変換し、量子化などの処理を行い、ある時刻に撮像されたYCbCr形式などの生画像データとして、物体検出部103及び画像切出部104に出力する。
Next, the basic operation of the
The
物体検出部103は所定の画像処理により、受光部102から出力された生画像データから、人物12A、人物12B及び人物12Cの顔を検出し、検出した顔の各々に対し固有の識別情報(ID)を付与するとともに、受光部102から出力された生画像データ内の位置を示す座標情報及び顔の大きさを示す情報(メタデータ)を、画像切出部104及び送信部106に出力する。表1に、物体検出部103が画像切出部104に出力するメタデータの一例を示す。
The
表1の例では、物体検出部103は、横位置200、縦位置500の座標(生画像データ内の位置を示す座標情報)に検出された横幅30、縦幅50(顔の大きさを示す情報)の顔に、ID10001を付与する。同様に、物体検出部103は、横位置450、縦位置800の座標に検出された横幅40、縦幅60の顔に、ID10002を付与し、横位置700、縦位置300の座標に検出された横幅35、縦幅55の顔に、ID10003を付与する。
In the example of Table 1, the
画像切出部104は、物体検出部103から出力された人物12A、人物12B及び人物12Cの顔の生画像データ内での位置を示す座標情報と顔の大きさを示す情報とに基づき、受光部102から出力された生画像データから、物体検出部103が検出した人物12A、人物12B及び人物12Cの顔を示す画像領域を切り出し、切り出した切出画像を、それぞれ符号化部105に出力する。
The
符号化部105は、画像切出部104から出力された各切出画像を符号化し、符号化された符号化顔画像を、送信部106に出力する。
The
送信部106は、符号化部105から出力された符号化顔画像について、物体検出部103からのメタデータに基づき、顔の画像サイズ(横幅×縦幅)の大きさが大きい順、すなわちID10002、ID10003、ID10001の順で、図示しないネットワークを介して、画像処理装置11に出力する。この際、符号化顔画像と共に、ID、横位置、縦位置、横幅、縦幅のそれぞれの情報を送信しても良い。ID、横位置、縦位置、横幅、縦幅のそれぞれの情報を送信する手段としては、符号化顔画像のヘッダ領域に含めて送信しても良いし、RTPのヘッダ領域に含めて送信しても良いし、符号化顔画像とは別のストリームや別のプロトコルで送信しても良い。これにより、たとえば、画像処理装置11における、監視対象領域上の各人物の位置の推定を支援することが可能となる。
For the encoded face image output from the
画像処理装置11は、送信部106が送信する符号化画像のそれぞれを画像サイズ(横幅×縦幅)の大きさが大きい順で受信し、受信した順に、特定の人物であるか否かを判断する顔認証等の画像処理を行う。
The
このように、本実施の形態に係る撮像装置は、同時刻に撮像された生画像データから切り出された複数の切出画像について、切出画像のサイズの大きさが大きい順で、外部に出力するように構成したので、撮像装置は、撮像装置の近くにいる可能性の高い人物、すなわち重要度の高い人物の顔から順に符号化顔画像を送信することが可能となり、画像処理装置11は、撮像装置の近くにいる可能性の高い人物の顔から順に、符号化顔画像の画像処理を行うことが可能となる。
As described above, the imaging apparatus according to the present embodiment outputs the plurality of cut-out images cut out from the raw image data taken at the same time to the outside in descending order of the size of the cut-out image. Therefore, the imaging device can transmit encoded face images in order from the face of a person who is likely to be near the imaging device, that is, a person with a high degree of importance, and the
なお、本実施の形態1では、送信部106は、符号化画像を送信する際、符号化画像を送信する都度RTPヘッダに含まれるタイムスタンプの値に対して所定の値を加算するようにしてもよい。RFC(Request For Comment)2435では、RTPヘッダに32ビット整数の画像の生成タイミングを表すタイムスタンプを含むことと、JPEGを送る場合のタイムスタンプは90000ヘルツであることとが規定されているので、例えば毎秒5回画像を送信する場合、通常は、ある時刻に撮像された生画像データから切り出された符号化画像に付与されるタイムスタンプは、すべて同じ値となり、0.2秒後に撮像された生画像データから切り出された符号化画像に付与されるタイムスタンプは、すべて18000だけ加算された値となるところ、ある時刻に撮像された生画像データから切り出された符号化画像について、画像の送信する順に、タイムスタンプを昇順で付与する。たとえば、3枚の符号化顔画像が撮像された時刻を2017年11月11日11時11分11秒とし、最初に送信するID10002の符号化画像にタイムスタンプの値として2000000を付与したとすると、ID10003の符号化画像にタイムスタンプの値として2000001を、ID10001の符号化画像にタイムスタンプの値として2000002を付与する。さらに、続いて2017年11月11日11時11分11.2秒に撮像された生画像データに顔を検出した場合、画像サイズの大きさが最も大きい符号化画像にタイムスタンプの値として2018000を付与して送信する。これにより、図示しないネットワークを介する過程で符号化画像の伝送される順序が入れ替わったとしても、画像処理装置11は、RTPヘッダに含まれるタイムスタンプの値を参照し、タイムスタンプが小さい順で、特定の人物であるか否かを判断する顔認証等の画像処理を行うことが可能となる。
In the first embodiment, when transmitting the encoded image, the transmitting
また、本実施の形態1では、符号化部105が符号化を行う例について示したが、符号化部105を設けず、符号化顔画像の代わりに切出画像を送信するよう構成してもよい。また、本実施の形態1では検出対象の物体として人物の顔を例に説明したが、人物の顔以外の物体、例えば車両に設置されたナンバープレートを検出するよう構成してもよい。
In the first embodiment, the
また、本実施の形態1では、物体検出部103は、メタデータを画像切出部104及び送信部106に出力する例について示したが、画像切出部104のみに出力し、画像切出部104及び符号化部105を介して、送信部106に、メタデータを出力するように構成してもよい。
In the first embodiment, the
実施の形態2.
実施の形態2では、物体追跡部をさらに備えることにより、符号化顔画像の大きさに加え、撮影期間の長さを考慮して送信順を決定する撮像装置について説明する。
Second Embodiment
In the second embodiment, an imaging apparatus will be described in which the order of transmission is determined in consideration of the length of the imaging period in addition to the size of the encoded face image by further including an object tracking unit.
実施の形態2に係る監視システム構成例を示す図は、実施の形態1と同様であるので、説明を省略する。 The diagram showing the configuration example of the monitoring system according to the second embodiment is the same as that of the first embodiment, so the description will be omitted.
図3は、この発明の実施の形態2に係る撮像装置13の構成の一例を示すブロック図である。図3において、図2と同一の符号は、同一または相当するものであるので、説明を省略する。
FIG. 3 is a block diagram showing an example of a configuration of an
物体検出部107は、受光部102から出力された生画像データから、人物の顔など特定の物体を検出し、物体の生画像データ内での位置を示す座標情報及び大きさの情報を、物体追跡部108に出力し、物体の生画像データ内での位置を示す座標情報及び大きさの情報並びに物体を初めて検出した時刻(初出時刻)の情報(メタデータ)を画像切出部104及び送信部110に出力するものである。
The
物体追跡部108は、物体検出部107が検出した人物の顔など特定の物体について、当該物体の初出時刻を物体検出部107に出力するものである。
The
データベース109は、物体検出部107が検出した人物の顔など特定の物体について、当該物体の初出時刻を記憶するものである。
The
送信部110は、符号化部105から出力された符号化画像を、初出時刻に基づき、図示しないネットワークを介して、画像処理装置11に出力するものである。
The
物体検出部107及び物体追跡部108の各機能は、不揮発性メモリに格納されるプログラムを実行するCPU(Central Processing Unit)または専用のハードウェアにより実現される。
Each function of the
物体検出部107及び物体追跡部108の各機能が専用のハードウェアにより実現される場合、当該の専用のハードウェアは、例えば、システムLSI(Large−Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
When each function of the
物体検出部107及び物体追跡部108の各機能がCPUにより実現される場合、物体検出部107及び物体追跡部108の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、物体検出部107及び物体追跡部108の各機能は、不揮発性メモリに記録されたプログラムを読み出してメモリに割り当てて実行するCPUにより実現される。ここで、メモリとは、例えば、RAM(Random Access Memory)、不揮発性メモリとは、例えば、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、及びEEPROM(Electrically Erasable Programmable Read−Only Memory)等が該当する。
When each function of the
なお、物体検出部107及び物体追跡部108の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、物体検出部107については専用のハードウェアでその機能を実現し、物体追跡部108についてはCPUが不揮発性メモリに格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
The functions of the
データベース109は、例えば、RAM(Random Access Memory)、またはフラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、及びEEPROM(Electrically Erasable Programmable Read−Only Memory)等の不揮発性メモリにより実現される。
The
送信部110は、例えば、FPGA及びネットワークインタフェースICにより実現される。
The
次に、撮像装置13の基本的な動作について、図3及び図4を参照しながら説明する。図3において、図2と同一の符号は、同一または相当するものであるので、説明を省略する。
Next, the basic operation of the
受光部102は集光部101から出力された光を電気信号に変換し、量子化などの処理を行い、ある時刻に撮像されたYCbCr形式などの生画像データとして、物体検出部107及び画像切出部104に出力する。
The
物体検出部107は所定の画像処理により、受光部102から出力された生画像データから、人物12A、人物12B及び人物12Cの顔を検出し、検出した顔の各々に対し固有の識別情報(ID)を付与するとともに、受光部102から出力された生画像データ内の位置を示す座標情報と、顔の大きさを示す情報(メタデータ)を、物体追跡部108に出力する。
The
物体追跡部108は、物体検出部107からのメタデータの入力を受け(ステップS1)、当該メタデータに含まれるIDがデータベース109に登録されているか否かを判定する(ステップS2)。
The
当該IDがデータベース109に登録されていない場合、物体追跡部108は、生画像データが撮像された時刻を当該IDの初出時刻とし(ステップS3)、初出時刻を当該IDに紐付けてデータベース109に登録し(ステップS4)、登録した初出時刻をメタデータに追加し、メタデータを物体検出部107に出力する(ステップS6)。
If the ID is not registered in the
当該IDがデータベース109に登録されている場合、物体追跡部108は、当該IDに紐付けられた初出時刻をデータベース109から取り出し(ステップS5)、取り出した初出時刻をメタデータに追加し、メタデータを物体検出部107に出力する(ステップS6)。
If the ID is registered in the
さらに、物体追跡部108は、物体検出部107からのメタデータに存在しないID(すなわち、物体検出部107により検出されなかった人物の顔のID)がデータベース109に登録されているか否かを判定する(ステップS7)。
Furthermore, the
物体検出部107により検出されなかった人物の顔のIDがデータベース109に登録されている場合、データベース109から、物体検出部107により検出されなかった人物の顔のID及び当該IDに紐付けられた初出時刻を削除する(ステップS8)。
When the ID of the face of the person not detected by the
次に、物体検出部107は、物体追跡部108からのメタデータの入力を受け、当該メタデータを、画像切出部104及び送信部110に出力する。
Next, the
送信部110は、符号化部105から出力された符号化顔画像について、物体検出部107からのメタデータに基づき、初出時刻と現在時刻との差が所定の閾値以内の人物の顔を優先して送信する。すなわち、まず、初出時刻と現在時刻との差が所定の閾値以内の人物の顔について、顔の画像サイズ(横幅×縦幅)の大きさが大きい順に送信し、次に、初出時刻と現在時刻との差が所定の閾値を超える人物の顔について、顔の画像サイズ(横幅×縦幅)の大きさが大きい順に送信する。
The
以上説明した動作について、以下、具体例を示す。 Specific examples of the operation described above will be shown below.
物体追跡部108は、2017年11月11日11時11分11秒に表2に示すメタデータを、物体検出部107に出力したものとする。
The
この場合、送信部110は、すべての顔画像の初出時刻が現在時刻と同時刻であるため、顔の画像サイズ(横幅×縦幅)の大きさが大きい順、すなわちID10002、ID10003、ID10001の順で、図示しないネットワークを介して、画像処理装置11に出力する。
In this case, since the first appearance time of all the face images is the same time as the current time, the transmitting
次に、物体追跡部108は、2017年11月11日11時11分11.2秒に表3に示す情報を、物体検出部107に出力したものとする。
Next, the
この場合、送信部110は、すべての顔画像の初出時刻と現在時刻との差が0.2秒以内であるため、顔の画像サイズ(横幅×縦幅)の大きさが大きい順、すなわちID10002、ID10001、ID10004の順で、図示しないネットワークを介して、画像処理装置11に出力する。
In this case, since the difference between the first appearance time of all face images and the current time is within 0.2 seconds in this case, the size of the face image size (horizontal width × vertical width) is in descending order, that is, ID 10002 , ID 10001, and ID 10004 in this order to the
次に、物体追跡部108は、2017年11月11日11時11分11.4秒に表4に示す情報を、物体検出部107に出力したものとする。
Next, it is assumed that the
この場合、送信部110は、まず、初出時刻と現在時刻との差が0.2秒以内である顔画像(ID10004)を、図示しないネットワークを介して、画像処理装置11に出力し、次に初出時刻とが現在時刻との差が0.2秒を超える顔画像(ID10001、ID10002)について、顔の画像サイズ(横幅×縦幅)の大きさが大きい順、すなわちID10002、ID10001の順で、図示しないネットワークを介して、画像処理装置11に出力する。
In this case, the
このように、本実施の形態に係る撮像装置は、同時刻に撮像された生画像データから切り出された複数の切出画像について、物体を初めて検出した時刻(初出時刻)と現在時刻との差が所定の閾値以内である画像を優先して外部に出力するように構成したので、撮像装置は、新たに検出した人物の顔、すなわち重要度の高い人物を優先して送信することが可能となり、画像処理装置11は、新たに検出した人物の顔を優先して、符号化顔画像の画像処理を行うことが可能となる。
Thus, in the imaging apparatus according to the present embodiment, the difference between the time when an object is detected for the first time (first appearance time) and the current time is obtained for a plurality of cut-out images cut out from raw image data taken at the same time. Since the image having priority within the predetermined threshold is preferentially output to the outside, the imaging apparatus can transmit the face of the newly detected person, that is, the person with high importance priority. The
なお、本実施の形態2では、送信部110は、初出時刻と現在時刻との差の閾値を1つ設けているが、初出時刻と現在時刻との差の閾値を複数設けてもよい。たとえば、閾値を2つ設ける場合は、初出時刻と現在時刻との差が第一の値以内の人物の顔を優先して送信し、次に、初出時刻と現在時刻との差が第二の値以内の人物の顔を優先して送信する。この場合も、新たに検出した人物の顔を優先して送信することが可能である。
In the second embodiment, the transmitting
また、本実施の形態2では、送信部110は、初出時刻と現在時刻との差の閾値を1つ設けているが、閾値を設けずに、初出時刻の遅い順に、図示しないネットワークを介して、画像処理装置11に出力するようにしてもよい。この場合も、新たに検出した人物の顔を優先して送信することが可能である。
Further, in the second embodiment, the transmitting
また、本実施の形態2では、物体追跡部108は、物体検出部107により検出されなかった人物の顔のIDがデータベース109に登録されている場合、すぐにデータベース109から、物体検出部107により検出されなかった人物の顔のID及び当該IDに紐付けられた初出時刻を削除している(ステップS8)が、物体検出部107により所定の期間連続して検出されなかった場合に、当該人物の顔のID及び当該IDに紐付けられた初出時刻をデータベース109から削除するようにしてもよい。これにより、当該の人物が継続して監視対象領域に存在しているにも関わらず、何らかの要因で、短時間、物体検出部107により当該の人物の顔が検出されなかった場合でも、当該の人物の顔が新たに検出されたものと誤検出することを防止することが可能となる。
Further, in the second embodiment, when the ID of the face of a person not detected by
また、送信部110は、ある時刻に撮像された生画像データから切り出された符号化画像について、画像の送信する順に、タイムスタンプを昇順で付与するようにしてもよい。これにより、図示しないネットワークを介する過程で符号化画像の伝送される順が入れ替わったとしても、画像処理装置11は、RTPヘッダに含まれるタイムスタンプの値を参照し、タイムスタンプが小さい順で、特定の人物であるか否かを判断する顔認証等の画像処理を行うことが可能となる。
In addition, the transmitting
また、本実施の形態2では、物体検出部107は、メタデータを画像切出部104及び送信部110に出力する例について示したが、画像切出部104のみに出力し、画像切出部104及び符号化部105を介して、送信部110に、メタデータを出力するように構成してもよい。
In the second embodiment, the
また、本実施の形態2では、物体検出部と物体追跡部とが互いに独立するものとして構成したが、物体検出部と物体追跡部とをまとめて構成するようにしてもよい。
In the second embodiment, although the object detection unit and the object tracking unit are configured to be independent of each other, the object detection unit and the object tracking unit may be configured together.
10 撮像装置、
11 画像処理装置、
12A 人物、
12B 人物、
12C 人物、
13 撮像装置、
101 集光部、
102 受光部、
103 物体検出部、
104 画像切出部、
105 符号化部、
106 送信部、
107 物体検出部、
108 物体追跡部、
109 データベース、
110 送信部
10 imaging devices,
11 image processing devices,
12A People,
12B People,
12C People,
13 Imaging device,
101 Focusing Unit,
102 light receiver,
103 object detection unit,
104 image cutout unit,
105 encoding unit,
106 transmitter,
107 object detection unit,
108 object tracking unit,
109 databases,
110 transmitter
Claims (4)
前記生画像データから所定の物体を検出し、検出した前記所定の物体のサイズ情報を出力する物体検出部と、
前記生画像データから前記物体検出部により検出された所定の物体の画像を切り出す画像切出部と、
同時刻に撮像された生画像データから前記画像切出部により切り出された複数の画像を、前記物体検出部から出力された当該画像に対応する物体のサイズ情報に基づき、サイズの大きい順に送信する送信部と
を備える、撮像装置。 An imaging unit that images a monitoring target area and outputs raw image data;
An object detection unit that detects a predetermined object from the raw image data and outputs size information of the detected predetermined object;
An image cutout unit that cuts out an image of a predetermined object detected by the object detection unit from the raw image data;
Based on the size information of an object corresponding to the image output from the object detection unit, the plurality of images cut out by the image extraction unit from the raw image data captured at the same time are transmitted in the order of large size An imaging device comprising: a transmitter unit.
前記送信部は、同時刻に撮像された生画像データから前記画像切出部により切り出された複数の画像を、前記物体追跡部から出力された当該画像に対応する物体の初出時刻に基づき、初出時刻の遅い画像を優先して送信し、かつ初出時刻が同時刻の複数の画像をサイズの大きい順に送信する、
請求項1記載の撮像装置。 It further comprises an object tracking unit that outputs a first appearance time when a predetermined object detected by the object detection unit is detected for the first time by the object detection unit,
The transmitting unit makes a first appearance of a plurality of images extracted by the image extracting unit from the raw image data captured at the same time, based on the first appearance time of an object corresponding to the image output from the object tracking unit. Priority is given to transmitting images that are late in time and transmission of multiple images with the same initial appearance time in descending order of size
The imaging device according to claim 1.
前記生画像データから所定の物体を検出する物体検出部と、
前記物体検出部により検出された所定の物体が、当該物体検出部で初めて検出された初出時刻を出力する物体追跡部と、
前記生画像データから前記物体検出部により検出された所定の物体の画像を切り出す画像切出部と、
同時刻に撮像された生画像データから前記画像切出部により切り出された複数の画像を、前記物体追跡部から出力された当該画像に対応する物体の初出時刻に基づき、初出時刻の遅い画像を優先して送信する送信部と
を備える、撮像装置。 An imaging unit that images a monitoring target area and outputs raw image data;
An object detection unit that detects a predetermined object from the raw image data;
An object tracking unit that outputs a first appearance time when a predetermined object detected by the object detection unit is detected for the first time by the object detection unit;
An image cutout unit that cuts out an image of a predetermined object detected by the object detection unit from the raw image data;
Based on the first appearance time of an object corresponding to the image output from the object tracking section, the plurality of images cut out by the image extraction section from the raw image data captured at the same time, an image of the later appearance An image pickup apparatus comprising:
請求項1から請求項3のうちのいずれか1項記載の撮像装置。 The transmitting unit adds time stamps in ascending order to the images, which are cut out by the video cutting unit from the imaging data captured at the same time, in the order of transmitting the images.
The imaging device according to any one of claims 1 to 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017224564A JP6996252B2 (en) | 2017-11-22 | 2017-11-22 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017224564A JP6996252B2 (en) | 2017-11-22 | 2017-11-22 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019097020A true JP2019097020A (en) | 2019-06-20 |
JP6996252B2 JP6996252B2 (en) | 2022-01-17 |
Family
ID=66972046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017224564A Active JP6996252B2 (en) | 2017-11-22 | 2017-11-22 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6996252B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004120341A (en) * | 2002-09-26 | 2004-04-15 | Riosu Corp:Kk | Video image monitoring system |
JP2005269473A (en) * | 2004-03-22 | 2005-09-29 | Mitsubishi Electric Corp | Monitoring system |
JP2005346545A (en) * | 2004-06-04 | 2005-12-15 | Nippon Telegr & Teleph Corp <Ntt> | Monitoring device and program |
JP2009141781A (en) * | 2007-12-07 | 2009-06-25 | Canon Inc | Imaging device, its control method, and program |
-
2017
- 2017-11-22 JP JP2017224564A patent/JP6996252B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004120341A (en) * | 2002-09-26 | 2004-04-15 | Riosu Corp:Kk | Video image monitoring system |
JP2005269473A (en) * | 2004-03-22 | 2005-09-29 | Mitsubishi Electric Corp | Monitoring system |
JP2005346545A (en) * | 2004-06-04 | 2005-12-15 | Nippon Telegr & Teleph Corp <Ntt> | Monitoring device and program |
JP2009141781A (en) * | 2007-12-07 | 2009-06-25 | Canon Inc | Imaging device, its control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6996252B2 (en) | 2022-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI706377B (en) | Action recognition in a video sequence | |
US8938092B2 (en) | Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program | |
US9639937B2 (en) | Apparatus and method for detecting event from plurality of photographed images | |
JP6094903B2 (en) | Receiving apparatus and receiving side image processing method | |
US20130188031A1 (en) | Risk recognition method for use in video surveillance system based on human identification | |
WO2013047083A1 (en) | Image processing device, image processing method, program, and image processing system | |
US10867166B2 (en) | Image processing apparatus, image processing system, and image processing method | |
US9639766B2 (en) | Camera device, server device, image monitoring system, control method of image monitoring system, and control program of image monitoring system | |
US11132538B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP2003324720A5 (en) | ||
Joshi et al. | A fall detection and alert system for an elderly using computer vision and Internet of Things | |
KR20140118014A (en) | Method for authenticating client | |
JP4622301B2 (en) | Surveillance system and surveillance camera | |
WO2021121264A1 (en) | Snapshot picture transmission method, apparatus and system, and camera and storage device | |
US20200242782A1 (en) | Image processing device and image processing method | |
WO2011045875A1 (en) | Image processing method, image processing device, and image capturing system | |
JP2014236312A (en) | Setting device and setting method | |
JP6809114B2 (en) | Information processing equipment, image processing system, program | |
US10573014B2 (en) | Image processing system and lens state determination method | |
KR20190136877A (en) | Method and apparatus for obtaining face image by using ip camera | |
JP6996252B2 (en) | Imaging device | |
KR100885734B1 (en) | System and method for image information processing | |
JP2016021155A (en) | Imaging apparatus | |
JP6267350B2 (en) | Data processing apparatus, data processing system, data processing method and program | |
JP2006228144A (en) | Image processing system, image processor, computer program and method for calculating image delay |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211129 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6996252 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |