JP2019091437A - Target detection system, method for detecting target, and program - Google Patents

Target detection system, method for detecting target, and program Download PDF

Info

Publication number
JP2019091437A
JP2019091437A JP2018197297A JP2018197297A JP2019091437A JP 2019091437 A JP2019091437 A JP 2019091437A JP 2018197297 A JP2018197297 A JP 2018197297A JP 2018197297 A JP2018197297 A JP 2018197297A JP 2019091437 A JP2019091437 A JP 2019091437A
Authority
JP
Japan
Prior art keywords
detection
detected
unit
imaging
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2018197297A
Other languages
Japanese (ja)
Inventor
誠人 新西
Masato Aranishi
誠人 新西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/177,598 priority Critical patent/US20190147611A1/en
Publication of JP2019091437A publication Critical patent/JP2019091437A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a target detection system that can conduct optimum detection processing while reducing the load on a system even if it is difficult to specify a detection target.SOLUTION: In the target detection system, a server 30 includes: identification information sending means 20 equipped to a detection target, the identification information sending means sending identification information of the detection target; detection means 40 for receiving a signal sent from the identification information sending means (tag 20) and detecting the detection target; imaging means 50; image analysis means 32 for performing image processing on an image taken by the imaging means 50 and estimating at least the position of the detection target; and control means for exercising control so that the image analysis means 32 chooses different processing to perform between when the detection target is detected by the detection means 40 in the imaging region of the imaging means 50 and when the detection target is not detected.SELECTED DRAWING: Figure 2

Description

本発明は、対象検出システム、対象検出方法、及びプログラムに関する。   The present invention relates to an object detection system, an object detection method, and a program.

無線通信システムとして、Bluetooth(登録商標)通信方式に基づいた電波を送信するBLE(Bluetooth Low Energy)装置や、Wi−Fi(登録商標)(Wireless Fidelity)通信方式の装置を用いる技術が知られている。このような通信システムにおいて、電波を発信する機器(以下、「タグ」ともいう)を所持した被検出対象(例えば、人物等)について、受信手段が電波を受信することにより対象を検知し、受信した電波強度等からそのエリアを推定する技術が知られている。また、被検出対象が所持するタグが備える各種センサの値(例えば、加速度、角速度、気圧、地磁気などの値)に基づき、当該被検出対象の活動量や行動内容、姿勢などを推定する技術も提案されている。   As a wireless communication system, a technology using a BLE (Bluetooth Low Energy) device that transmits radio waves based on the Bluetooth (registered trademark) communication method and a device using a Wi-Fi (registered trademark) communication method is known. There is. In such a communication system, the receiving means detects an object by receiving the radio wave with respect to a detection target (for example, a person or the like) who possesses an apparatus (hereinafter, also referred to as a "tag") that transmits the radio wave. There is known a technique for estimating the area from the radio wave intensity etc. In addition, the technology for estimating the amount of activity, action content, posture, etc. of the object to be detected based on the values (for example, values of acceleration, angular velocity, barometric pressure, geomagnetism, etc.) of various sensors provided in the tag of the object to be detected. Proposed.

しかしながら、無線通信を利用した解析においては、原理的に実際の位置に対して1〜3mの誤差が生じてしまうという課題がある。また、被検出対象のタグの装着部位等の条件によって、得られる情報が限定されてしまうという課題もある。   However, in analysis using wireless communication, there is a problem that an error of 1 to 3 m may occur to the actual position in principle. In addition, there is also a problem that the information to be obtained is limited depending on conditions such as the attachment site of the tag to be detected.

一方、従来よりこのような被検出対象の検知や位置や姿勢の推定方法として、定点設置された監視カメラ等の画像を用いた解析技術が知られている。   On the other hand, conventionally, an analysis technique using an image of a surveillance camera or the like installed at a fixed point has been known as such a detection method of the detection target and an estimation method of the position and posture.

しかしながら、撮影手段によって撮影された画像を利用する解析方法においては、被検出対象が撮影手段の画角外にある場合や、障害物の存在等により死角が生じる場合には解析を行うことができないという課題がある。   However, in the analysis method using an image captured by the imaging unit, the analysis can not be performed when the object to be detected is outside the angle of view of the imaging unit or when a blind spot occurs due to the presence of an obstacle or the like. There is a problem called.

このような課題に対し、未撮影領域における対象の行動を推定する技術が提案されている(例えば、特許文献1参照)。
特許文献1には、行動推定モデルを用いて、対象の人物の行動を死角であっても認識できる構成が開示されている。
In order to solve such problems, a technique has been proposed for estimating the action of a target in an unphotographed area (see, for example, Patent Document 1).
Patent Document 1 discloses a configuration that can recognize an action of a target person even in a blind spot by using an action estimation model.

また、被検出対象が人物の場合、画像からの特定が困難な場合等、個人の誤認識が生じることもある。これに対し、監視対象を識別する識別情報を用いる技術も提案されている(例えば、特許文献2参照)。   In addition, when the detection target is a person, misidentification of an individual may occur, for example, when identification from an image is difficult. On the other hand, a technology using identification information for identifying a monitoring target has also been proposed (see, for example, Patent Document 2).

被検出対象を検出するシステムにおいては、撮影手段の死角や撮影領域外にある被検出対象の検知や位置の推定を、他の検出手段によって確実に補完すること、そして被検出対象の誤認識を防ぐために被検出対象を特定する情報と位置情報との関連付けを確実に行うことが要求される。   In a system for detecting an object to be detected, the detection of the object to be detected or the position estimation that is outside the imaging area or the blind spot of the imaging means must be reliably complemented by other detection means, and erroneous recognition of the object to be detected In order to prevent this, it is required to reliably associate the information for specifying the detection target with the position information.

被検出対象の検知や位置の推定を確実に補完し、被検出対象を特定する情報と位置情報との関連付けを確実に行うためには、画像解析手段を用いた画像処理を行うことが好ましい。
しかしながら、画像解析手段を用いて被検出対象である人物やその行動を認識するための処理を行う場合、被検出対象の特定が困難な場合は、処理時間や処理電力を含めたシステムの負荷が大きくなるという課題がある。
In order to reliably complement the detection of the detection target and the estimation of the position, and to reliably associate the information for specifying the detection target with the position information, it is preferable to perform image processing using an image analysis unit.
However, when performing processing to recognize a person to be detected and its action using image analysis means, if it is difficult to specify the object to be detected, the load on the system including processing time and processing power is There is a problem of becoming larger.

そこで本発明は、上記課題に鑑み、被検出対象の特定が困難な場合であっても、システムの負荷を軽減しつつ、最適な検出処理が可能な対象検出システムを提供することを目的とする。   Therefore, in view of the above problems, it is an object of the present invention to provide an object detection system capable of performing an optimal detection process while reducing the load on the system even when it is difficult to specify an object to be detected. .

かかる目的を達成するため、本発明に係る対象検出システムは、被検出対象に装着され、該被検出対象の識別情報を発信する識別情報発信手段と、前記識別情報発信手段から発信された信号を受信し、前記被検出対象を検知する検知手段と、撮影手段と、該撮影手段により撮影された画像に対して画像処理を行い、少なくとも前記被検出対象の位置を推定する画像解析手段と、前記被検出対象が前記撮影手段の撮影領域内において前記検知手段により検知された場合と、検知されない場合とで、前記画像解析手段が異なる処理を実行するように制御する制御手段と、を備えることを特徴とする。   In order to achieve the above object, an object detection system according to the present invention comprises: identification information transmitting means mounted on an object to be detected and transmitting identification information of the object to be detected; and a signal transmitted from the identification information transmitting means Image detecting means for receiving and detecting the object to be detected, imaging means, image processing performed on the image taken by the imaging means, and estimating at least the position of the object to be detected; Providing a control unit that controls the image analysis unit to execute different processing depending on whether the detection target is detected by the detection unit or not detected in the imaging area of the imaging unit; It features.

本発明によれば、被検出対象の特定が困難な場合であっても、システムの負荷を軽減しつつ、最適な検出処理が可能な対象検出システムを提供することができる。   According to the present invention, it is possible to provide an object detection system capable of performing an optimum detection process while reducing the load on the system even when it is difficult to specify an object to be detected.

対象検出システムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of a target detection system. 対象検出システムの概略構成の一例を示すブロック図である。1 is a block diagram showing an example of a schematic configuration of a target detection system. 識別情報発信手段(タグ)の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of an identification information transmission means (tag). 受信機器である検知手段の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the detection means which is a receiver. サーバーの構成の一例を示すブロック図である。It is a block diagram showing an example of composition of a server. 撮影手段と検知手段の検知範囲の対応の一例を示すもので、図6(a)は対応表、図6(b)は領域を模式的に示した図である。FIG. 6 (a) is a correspondence table, and FIG. 6 (b) is a diagram schematically showing a region. サーバーにおいて行われる処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed in a server. 被検出対象の位置の推定を行う態様の一例を示す説明図である。It is explanatory drawing which shows an example of the aspect which estimates the position of to-be-detected object. 被検出対象の位置の推定を行う態様の一例を示す説明図である。It is explanatory drawing which shows an example of the aspect which estimates the position of to-be-detected object. 被検出対象の位置の推定を行う態様の一例を示す説明図である。It is explanatory drawing which shows an example of the aspect which estimates the position of to-be-detected object. 被検出対象の位置の推定を行う態様の一例を示す説明図である。It is explanatory drawing which shows an example of the aspect which estimates the position of to-be-detected object. 被検出対象の姿勢の推定を行う態様の一例を示す説明図である。It is explanatory drawing which shows an example of the aspect which estimates the attitude | position of a to-be-detected object. 被検出対象の位置の推定を行う態様の一例を示す説明図である。It is explanatory drawing which shows an example of the aspect which estimates the position of to-be-detected object.

以下、本発明に係る対象検出システム、対象検出方法及びプログラムについて、図面を参照して説明する。なお、本発明は以下に示す実施形態に限定されるものではなく、他の実施形態、追加、修正、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   Hereinafter, an object detection system, an object detection method, and a program according to the present invention will be described with reference to the drawings. In addition, this invention is not limited to embodiment shown below, It can change in the range which those skilled in the art could concidentize, such as other embodiment, addition, correction, deletion, and any aspect Even within the scope of the present invention, as long as the functions and effects of the present invention can be achieved.

図1は、対象検出システムの概略構成の一例を示す図である。
図1に示すように、対象検出システム1は、被検出対象10に装着され、被検出対象10の識別情報を発信する識別情報発信手段(以下、「タグ」ともいう)20と、識別情報発信手段20から発信された識別情報の信号を受信し、被検出対象10を検知する受信機器である検知手段40と、撮影手段(カメラ)50と、サーバー30と、を備える。
サーバー30は、検知手段40及び撮影手段50と通信可能にネットワークで接続されている。
検知手段40は複数設けられることが好ましく、撮影手段50とともに所望の場所に配設される。
FIG. 1 is a diagram showing an example of a schematic configuration of a target detection system.
As shown in FIG. 1, the object detection system 1 is attached to the object to be detected 10, and transmits identification information transmitting means (hereinafter also referred to as "tag") 20 for transmitting identification information of the object to be detected 10; It comprises a detection means 40 which is a receiving device for receiving the signal of the identification information transmitted from the means 20 and detecting the detection target 10, a photographing means (camera) 50, and a server 30.
The server 30 is communicably connected to the detection unit 40 and the imaging unit 50 via a network.
It is preferable that a plurality of detection means 40 be provided, and the detection means 40 be disposed along with the imaging means 50 at a desired place.

図2は、対象検出システムの構成の一例を示すブロック図である。
サーバー30は、検知手段40から受信した識別情報に含まれる各種データを分析する識別情報分析部31、撮影手段50から受信した画像データを分析する画像解析手段である画像解析部32、それぞれの分析結果に基づく情報を関連づけて統合する統合部33、統合された情報が登録・保存されるデータベース(DB)34、及びユーザからの要求に応じてデータベース34からデータを抽出して表示するUI表示部35を備える。
FIG. 2 is a block diagram showing an example of the configuration of a target detection system.
The server 30 analyzes an identification information analysis unit 31 that analyzes various data included in identification information received from the detection unit 40, and an image analysis unit 32 that is an image analysis unit that analyzes image data received from the imaging unit 50. An integration unit 33 that associates and integrates information based on results, a database (DB) 34 in which the integrated information is registered and stored, and a UI display unit that extracts and displays data from the database 34 in response to a request from a user 35 is provided.

図3は、識別情報発信手段(タグ)20の構成の一例を示すブロック図である。
タグ20には、加速度センサ22、角速度センサ23、気圧センサ24、及び地磁気センサ25が搭載されている。それぞれのセンサからの出力値は、各センサのデータとして、無線送信部21からBLE(Bluetooth Low Energy)などを利用して送信される。
FIG. 3 is a block diagram showing an example of the configuration of identification information transmitting means (tag) 20. As shown in FIG.
An acceleration sensor 22, an angular velocity sensor 23, an air pressure sensor 24, and a geomagnetic sensor 25 are mounted on the tag 20. The output value from each sensor is transmitted from the wireless transmission unit 21 using data such as BLE (Bluetooth Low Energy) as data of each sensor.

図4は、受信機器である検知手段40の構成の一例を示すブロック図である。
検知手段40は、タグ20から発信された識別情報(各センサのデータを含んでいても良い)を受信する情報受信部41、受信した識別情報や各センサのデータを処理する情報処理部42、処理されたデータをサーバー30へ送信する情報送信部43を備える。
FIG. 4 is a block diagram showing an example of the configuration of the detection means 40 which is a receiving device.
The detection unit 40 receives an identification information (may include data of each sensor) transmitted from the tag 20, an information reception unit 41, an information processing unit 42 that processes the received identification information and data of each sensor, The information transmission unit 43 transmits the processed data to the server 30.

図5は、サーバー30の構成の一例を示すブロック図である。
サーバー30は、検知手段40からデータを受信する受信部36、検知手段40から受信したデータを分析する識別情報分析部31、撮影手段50から画像データを受信する受信部37、撮影手段50から受信した画像データを分析する画像解析手段である画像解析部32、それぞれの分析結果に基づく情報を関連づけて統合する統合部33、統合された情報が登録、保存されるデータベース(DB)34、及びユーザからの要求に応じてデータベース34からデータを抽出して表示するUI表示部35を備える。
FIG. 5 is a block diagram showing an example of the configuration of the server 30. As shown in FIG.
The server 30 receives from the receiving unit 36 that receives data from the detection unit 40, the identification information analysis unit 31 that analyzes data received from the detection unit 40, the reception unit 37 that receives image data from the imaging unit 50, and the imaging unit 50 Image analysis unit 32 that analyzes the processed image data, an integration unit 33 that associates and integrates information based on each analysis result, a database (DB) 34 in which the integrated information is registered and stored, and a user And a UI display unit 35 for extracting and displaying data from the database 34 in response to a request from the user.

統合部33で統合される情報は、例えば、画像解析部32の解析により推定された被検出対象10の情報と、タグ20から発信され、識別情報分析部31により分析された被検出対象10の情報である。
すなわち、統合部33において、画像解析手段である画像解析部32により推定された被検出対象10の位置情報等と、当該被検出対象10の識別情報(タグID及び位置情報等)とが関連づけられ、統合された情報としてデータベース34へ登録される。
The information integrated by the integration unit 33 includes, for example, information of the detection target 10 estimated by analysis of the image analysis unit 32, and information of the detection target 10 transmitted from the tag 20 and analyzed by the identification information analysis unit 31. It is information.
That is, in the integration unit 33, position information and the like of the detection target 10 estimated by the image analysis unit 32, which is an image analysis unit, and identification information (tag ID and position information and the like) of the detection target 10 are associated. , Is registered in the database 34 as integrated information.

サーバー30は制御手段を備え、該制御手段は、被検出対象10が撮影手段50の撮影領域内において検知手段40により検知された場合と、検知されない場合とで、画像解析部32が異なる処理を実行するように制御する。
なお、当該撮影手段50の撮影領域外にある他の検知手段40が被検出対象10を検知したときは、統合部33において状態変更を行い、当該他の検知手段40を撮影領域内に含む他の撮影手段50の画像を解析対象とする処理が行われる。
The server 30 is provided with a control means, and the control means performs processing in which the image analysis unit 32 differs depending on whether the detection target 10 is detected by the detection means 40 within the imaging area of the imaging means 50 or not. Control to run.
When another detection unit 40 outside the imaging area of the imaging unit 50 detects the detection target 10, the integration unit 33 changes the state, and the other detection unit 40 is included in the imaging area. A process of analyzing the image of the photographing means 50 is performed.

被検出対象10の位置の推定のための処理は、検知手段40の受信したデータに対する識別情報分析部31による処理よりも、画像データに対する画像解析部32による処理の方が、圧倒的に高い演算能力を要する。すなわち、画像処理を伴わない解析は、処理対象のデータ量と演算量が少ないので演算処理が軽いが、画像処理を伴う解析は、処理対象のデータ量と演算量が多くなり、演算処理が重くなる。
そのため、常に画像解析部32による画像処理を実行するよりも、被検出対象10が撮影手段50の撮影領域内で検知された場合のみ画像解析部32による画像処理が実行されるように制御することは、処理の高速化や計算コストの低減がおこなえるため計算機リソースの用意が少なくて済むため好ましい。
被検出対象10が撮影手段50の撮影領域内において検知手段40により検知された場合は画像解析部32が被検出対象10の画像処理を実行し、被検出対象10が撮影手段50の撮影領域内において検知手段40により検知されない場合は画像解析部32が被検出対象10の画像処理を実行しないように制御される。
被検出対象10が撮影手段50の撮影領域外で検知された場合は、検知手段40により位置の推定が行われる。
In the processing for estimating the position of the detection target 10, the processing by the image analysis unit 32 for the image data is overwhelmingly higher than the processing by the identification information analysis unit 31 for the data received by the detection unit 40 Requires ability. That is, analysis that does not involve image processing is light in calculation processing because the amount of data to be processed and the amount of calculation is small, but analysis that involves image processing has a large amount of data to be processed and the amount of calculation, and calculation processing is heavy Become.
Therefore, instead of always performing the image processing by the image analysis unit 32, control is performed so that the image processing by the image analysis unit 32 is executed only when the detection target 10 is detected within the imaging area of the imaging unit 50. Is preferable because the processing speed can be increased and the calculation cost can be reduced, and the preparation of computer resources can be reduced.
When the detection target 10 is detected by the detection unit 40 in the imaging area of the imaging unit 50, the image analysis unit 32 executes the image processing of the detection target 10, and the detection target 10 is in the imaging area of the imaging unit 50. In the case where the detection unit 40 does not detect the image, the image analysis unit 32 is controlled not to execute the image processing of the detection target 10.
When the detection target 10 is detected outside the imaging region of the imaging unit 50, the detection unit 40 estimates the position.

上述の構成を備える本実施形態の対象検出システムによる対象検出方法は、被検出対象10に装着された識別情報発信手段(タグ)20が、被検出対象10の識別情報を発信するステップと、検知手段40が、識別情報発信手段20から発信された信号を受信し、被検出対象10を検知するステップと、撮影手段50により被検出対象10が撮影されるステップと、被検出対象10が撮影手段50の撮影領域内において検知手段40により検知された場合と、検知されない場合とで、画像解析手段である画像解析部32が異なる処理を実行し、被検出対象10が撮影手段50の撮影領域内において検知手段40により検知された場合は画像解析部32が被検出対象10の画像処理を実行するステップと、被検出対象10の位置を推定するステップと、を備える。
すなわち、被検出対象10が撮影手段50の撮影領域内で検知された場合のみ、画像解析部32による画像処理の実行ステップを経て被検出対象10の位置を推定するステップが行われ、被検出対象10が撮影手段50の撮影領域外で検知された場合は、画像処理のステップは行われず、検知手段40による位置の推定ステップが行われる。
In the target detection method according to the target detection system of the present embodiment having the above-described configuration, the identification information transmission unit (tag) 20 mounted on the detection target 10 transmits identification information of the detection target 10, and detection The means 40 receives the signal transmitted from the identification information transmitting means 20, detects the object 10 to be detected, the step of imaging the object 10 to be detected by the imaging means 50, and the object 10 to be detected is an imaging device The image analysis unit 32, which is an image analysis unit, executes different processing depending on whether the detection unit 40 detects the detection region 40 or not within the 50 imaging regions, and the detection target 10 is in the imaging region of the imaging unit 50. If the image analysis unit 32 performs image processing of the detection target 10 when detection is performed by the detection unit 40 in Includes a flop, the.
That is, only when the object to be detected 10 is detected within the imaging area of the imaging means 50, the step of performing the image processing by the image analysis unit 32 to estimate the position of the object to be detected 10 is performed. When 10 is detected outside the imaging area of the imaging unit 50, the image processing step is not performed, and the position estimation step by the detection unit 40 is performed.

なお、本実施形態の対象検出システムにおいて、撮影手段50の撮影領域内において検知された被検出対象10が、その後、前記撮影領域内であって検知手段40により検知されない位置に移動したときは、画像解析手段(画像解析部32)による位置の推定が継続される。
この処理については、後述の図7のフローチャートにおけるステップS012、及び図13にて具体的に説明する。
In the target detection system of the present embodiment, when the detection target 10 detected in the imaging area of the imaging unit 50 subsequently moves to a position within the imaging area and not detected by the detection unit 40, The estimation of the position by the image analysis means (image analysis unit 32) is continued.
This process will be specifically described in step S012 in the flowchart of FIG. 7 described later and in FIG.

また、撮影手段50の撮影領域内において検知された被検出対象10が、その後、前記撮影領域外または撮影不能位置に移動したときは、検知手段40の受信した情報により位置の推定が行われる。
被検出対象10が撮影手段50の撮影領域外において検知された場合の処理については、後述の図7のフローチャートにおけるステップS004及び図9にて具体的に説明する。
In addition, when the detection target 10 detected in the imaging area of the imaging unit 50 subsequently moves to the outside of the imaging area or the non-imaging position, the position is estimated based on the information received by the detection unit 40.
The processing in the case where the detection target 10 is detected outside the imaging area of the imaging means 50 will be specifically described in step S 004 in the flowchart of FIG. 7 described later and FIG.

検知手段40の受信した情報による被検出対象10の位置の推定は、検知手段40の位置情報、及び識別情報発信手段20から受信した信号強度に基づいて行われる。
検知手段40の位置情報による被検出対象10の位置の推定は、後述の図7のフローチャートのステップS002及び図6にて具体的に説明する。
検知手段40の位置情報とともに、識別情報発信手段20からの信号強度により、例えば、検知手段40に対する遠近を判断することができる。
The estimation of the position of the detection target 10 based on the information received by the detection unit 40 is performed based on the position information of the detection unit 40 and the signal strength received from the identification information transmission unit 20.
The estimation of the position of the detection target 10 based on the position information of the detection means 40 will be specifically described in step S002 of the flowchart of FIG. 7 described later and FIG.
From the signal intensity from the identification information transmitting means 20 together with the position information of the detecting means 40, for example, the distance to the detecting means 40 can be determined.

被検出対象10は、例えば人物である。
本実施形態の対象検出システムは、検知手段40の受信した情報および/または撮影手段50により撮影された画像から、被検出対象10の位置の推定とともに姿勢が推定される態様とすることができる。
The detection target 10 is, for example, a person.
The target detection system of the present embodiment can be configured such that the posture is estimated together with the estimation of the position of the detection target 10 from the information received by the detection unit 40 and / or the image captured by the imaging unit 50.

被検出対象10の位置情報と識別情報に加え、姿勢の情報も関連付けることにより、例えば、物流倉庫の作業者のピッキングにおける行動の解析等に利用することがでる。得られたデータは倉庫内のレイアウト改善等に活用することができる。   In addition to the position information of the detection target 10 and the identification information, by associating the information of the posture, it is possible to use, for example, analysis of the action in picking of the worker of the physical distribution warehouse. The obtained data can be utilized for layout improvement etc. in the warehouse.

また、被検出対象10の姿勢の推定処理についても位置の推定処理と同様、被検出対象10が撮影手段50の撮影領域内で検知された場合のみ画像解析部32において画像処理を行い、推定を行うように制御することにより、処理の高速化や計算コストの低減による計算機リソースの用意が少なくて済むことに寄与する。
また、撮影手段50により被検出対象10が認識できない場合や認識が困難な場合等には、検知手段40の情報に基づく姿勢の推定を行うことができる。
Further, similarly to the position estimation processing, the image analysis unit 32 performs image processing only when the detection target 10 is detected within the imaging area of the imaging unit 50, and estimates the estimation processing of the posture of the detection target 10 as well. The control to be performed contributes to the reduction of preparation of computer resources due to speeding up of processing and reduction of calculation cost.
Further, when the object to be detected 10 can not be recognized by the imaging unit 50 or when the recognition is difficult, it is possible to estimate the posture based on the information of the detection unit 40.

検知手段40の情報に基づく姿勢の推定方法の例を以下に説明する。
まず、タグ20が備える加速度センサ22が検出した加速度と地磁気センサ25が検出した磁北に基づきタグ20の傾きを算出する。
例えば、被検出対象の人物10が腰曲げすると、タグ20の傾きが所定範囲の値を取るため、その値が検出された場合、人物10が腰曲げしたと推定される。また、人物10が反り姿勢を取ると、腰曲げとは逆方向の傾きがある所定範囲の値を取るため、その値が検出された場合、人物10が反り姿勢をしたと推定される。
An example of a posture estimation method based on the information of the detection means 40 will be described below.
First, the inclination of the tag 20 is calculated based on the acceleration detected by the acceleration sensor 22 included in the tag 20 and the magnetic north detected by the geomagnetic sensor 25.
For example, when the person 10 to be detected bends, the inclination of the tag 20 takes a value in a predetermined range, and therefore, when the value is detected, it is estimated that the person 10 bends. In addition, when the person 10 takes a warped posture, it takes a value in a predetermined range in which the inclination in the direction opposite to the waist bending has a certain value. Therefore, when the value is detected, it is estimated that the person 10 has a warped posture.

一方、被検出対象の人物10がしゃがむと、気圧センサ24が検出する気圧が変化する。下方ほど気圧が高く、上方ほど気圧が低いので、時間的に後の気圧から前の気圧を引くと、しゃがんだ時の気圧差は正値になる。逆に、人物10が立ち上がると、気圧差は負値になる。そこで、しゃがみ込みの際の気圧ピーク(正値)としゃがみ込みからの立ち上がりの行動の際のピーク(負値)のペアを検出することで、しゃがみ込みという姿勢を推定する。しゃがみ込みが認識されるのは、立ち上がりが終了した後であるが、しゃがみ込みから立ち上がりまでが事後的にしゃがみ込みの姿勢であると推定される。   On the other hand, when the person 10 to be detected is crouched, the air pressure detected by the air pressure sensor 24 changes. The lower the air pressure is, the lower the air pressure. Therefore, when the air pressure is subtracted from the air pressure after the air pressure, the air pressure difference when squatting becomes a positive value. Conversely, when the person 10 stands up, the air pressure difference becomes a negative value. Therefore, a posture of squatting is estimated by detecting a pair of a barometric pressure peak (positive value) at squashing and a peak (negative value) at a rising action from squatting. Although squatting is recognized after the end of rising, it is estimated that the posture from squatting up to rising is the posture of squatting afterward.

この他の姿勢は以下のように推定される。
・歩行:加速度センサ22が検出する加速度、及び、角速度センサ23が検出する角速度から歩行という姿勢を推定する。例えば、所定以上の上下方向の加速度が検出され、人間の歩行に生じる左右の揺れ(ロール)が検出されると歩行と推定される。
・階段昇降:人物10が階段を昇降する際は歩行と同様の加速度及び角速度が検出される。階段昇降の場合、更に、気圧が変化し、また、歩行では生じない上下方向の加速度が生じる。したがって、歩行と同様の左右の揺れ、歩行よりも強い上下方向の加速度、及び、気圧の変化が検出されると階段の昇降という姿勢が推定される。なお、気圧が小さくなれば階段登りであり、気圧が大きくなれば階段降りである。
・着座:人物10が着座する場合、下方向に加速度が検出されたあと安定し、また、着座した後はタグ20の傾きが基準値と異なる値で安定する。したがって、下方向に加速度が検出された後、安定し、傾きが基準値と異なる値で安定すると着座であると推定される。
This other attitude is estimated as follows.
Walking: The posture of walking is estimated from the acceleration detected by the acceleration sensor 22 and the angular velocity detected by the angular velocity sensor 23. For example, when acceleration in the vertical direction above a predetermined level is detected, and lateral swing (roll) that occurs in human walking is detected, it is estimated to be walking.
Stair climbing: When the person 10 climbs the stairs, the same acceleration and angular velocity as walking are detected. In the case of stair-climbing, the air pressure also changes, and vertical acceleration that does not occur in walking occurs. Therefore, when the same lateral swing as walking, acceleration in the vertical direction stronger than walking, and a change in atmospheric pressure are detected, the posture of going up and down the stairs is estimated. It should be noted that the stairs are climbed if the pressure is smaller, and the stairs are down if the pressure is larger.
Sitting: When the person 10 is seated, the acceleration is detected in the downward direction and then stabilized, and after seating, the tilt of the tag 20 is stabilized at a value different from the reference value. Therefore, after the acceleration is detected in the downward direction, it is estimated that seating is stable if the inclination is stabilized at a value different from the reference value.

図6は撮影手段50の撮影領域と検知手段40の検知範囲の対応の一例を示すもので、図6(a)は対応表であり、図6(b)は各領域を上から見た状態を模式的に示した図である。
図6(b)では、撮影手段50として2台のカメラが設置された例を示しているが、設置台数や設置位置はこれに限定されない。
撮影手段50aの撮影領域60aをCam1、撮影手段50bの撮影領域60bをCam2として表している。
FIG. 6 shows an example of the correspondence between the imaging area of the imaging means 50 and the detection range of the detection means 40. FIG. 6 (a) is a correspondence table, and FIG. 6 (b) is a state when each area is viewed from above Are schematically shown.
Although FIG. 6B shows an example in which two cameras are installed as the imaging unit 50, the number of installed units and the installation position are not limited to this.
The imaging area 60a of the imaging means 50a is represented as Cam1, and the imaging area 60b of the imaging means 50b as Cam2.

図6(a)及び図6(b)に示すように、カメラ50aの撮影領域60a内(Cam1で表される撮影可能範囲)には、当該撮影領域内において被検出対象10を検知可能に配置された2つの検知手段A(40a)及び検知手段B(40b)が設置されている。検知手段A(40a)による信号受信可能領域をRa、検知手段B(40b)による信号受信可能領域をRbで示している。さらに、撮影領域60a(Cam1)外には検知手段C(40c)が設置されている。検知手段C(40c)による信号受信可能領域をRcで示している。   As shown in FIGS. 6A and 6B, in the imaging area 60a of the camera 50a (the imaging available area represented by Cam1), the detection target 10 is disposed so as to be detectable in the imaging area. Two detection means A (40a) and detection means B (40b) are installed. A signal receivable area by the detecting means A (40a) is indicated by Ra, and a signal receivable area by the detecting means B (40b) is indicated by Rb. Further, outside the imaging area 60a (Cam 1), a detection means C (40c) is installed. A signal receivable area by the detection means C (40c) is indicated by Rc.

これらの対応を示したものが図6(a)の対応表である。
この対応表は、本実施形態の対象検出システムにおいて、サーバー30における情報の統合処理において参照される。
また、本実施形態においては、被検出対象10が撮影手段50の撮影領域内において検知手段40により検知された場合にのみ画像解析手段である画像解析部32が画像処理を実行するように制御されるため、撮影手段50の撮影領域内において被検出対象10を検知可能に配置された検知手段40が被検出対象10を検知したときのみ、画像解析部32が画像処理を実行するように制御するために参照される。
These correspondences are shown in the correspondence table of FIG. 6 (a).
The correspondence table is referred to in the integration processing of information in the server 30 in the target detection system of the present embodiment.
Further, in the present embodiment, the image analysis unit 32, which is an image analysis unit, is controlled to execute the image processing only when the detection target 10 is detected by the detection unit 40 in the imaging region of the imaging unit 50. Therefore, the image analysis unit 32 is controlled to execute the image processing only when the detection unit 40 arranged to detect the detection target 10 in the imaging area of the imaging unit 50 detects the detection target 10. Referenced to.

図7は、サーバー30において行われる処理の一例を示すフローチャートである。これらの処理は、制御手段によって制御される。
まず、受信部36が検知手段40から受信した情報が識別情報分析部31へ出力され、識別情報分析部31にてタグ情報の分析が行われる。
統合部33への情報入力のステップとして、タグ情報の分析結果が識別情報分析部31から取得される(S001)。
取得される情報としては、データが取得できなかった(取得不能)という情報も含まれる。
FIG. 7 is a flowchart showing an example of processing performed by the server 30. These processes are controlled by the control means.
First, the information received by the reception unit 36 from the detection unit 40 is output to the identification information analysis unit 31, and the identification information analysis unit 31 analyzes the tag information.
As a step of information input to the integration unit 33, an analysis result of tag information is acquired from the identification information analysis unit 31 (S001).
Information to be acquired includes information that data could not be acquired (impossible to acquire).

次に、図6(a)に示したものと同様の対応表に基づき、検知手段40の受信領域と撮影手段50の撮影領域との対応を参照する(S002)。具体的には、検知手段40の受信領域(タグ20の情報から推定される領域情報)と、撮影された画像から推定される位置情報について、それぞれの対応関係と座標の比較を行う。
位置情報の推定は、例えば、前の時点におけるフレーム(前フレーム)の画像から推定することもでき、またカメラの設置位置とカメラの設定(レンズの焦点距離など)から推定することもできる。
Next, based on the same correspondence table as that shown in FIG. 6A, the correspondence between the reception area of the detection means 40 and the imaging area of the imaging means 50 is referred to (S002). Specifically, the correspondence relationship and the coordinates of the reception area of the detection means 40 (area information estimated from the information of the tag 20) and the position information estimated from the photographed image are compared.
The position information can be estimated, for example, from an image of a frame (previous frame) at a previous time, or can be estimated from a camera installation position and a camera setting (such as a lens focal length).

検知手段40の受信領域と、撮影手段50の撮影領域とを前記対応表に基づき比較し(S002)、検知手段40の受信領域が撮影手段50の撮影領域内であるか否かを判断する(S003)。
検知手段40の受信領域が撮影領域内にない場合であって、当該検知手段40の受信領域内にタグ20が存在する場合には、撮影手段50の撮影領域外にタグ20が存在すると判断される。この場合、位置情報として撮影領域外である検知手段40の受信領域と、タグの情報(以下、「タグID」ともいう)とを統合する(S004)。
The reception area of the detection unit 40 and the imaging area of the imaging unit 50 are compared based on the correspondence table (S002), and it is determined whether the reception area of the detection unit 40 is within the imaging area of the imaging unit 50 S003).
If the reception area of the detection means 40 is not within the imaging area and the tag 20 is present within the reception area of the detection means 40, it is determined that the tag 20 is outside the imaging area of the imaging means 50. Ru. In this case, as the position information, the reception area of the detection means 40 which is outside the imaging area and the tag information (hereinafter, also referred to as “tag ID”) are integrated (S 004).

撮影手段50の撮影領域内に検知手段40の受信領域がある場合は、撮影画像の解析を行うために、受信部37によりデータの受信を行い、受信した画像データを画像解析部32へ出力し、実際の解析処理を実行する(S005)。
なお、画像の解析処理は負荷が大きいため、被検出対象10が撮影手段50の撮影領域内で検知され、ID統合処理へ進む場合にのみ行われる。
画像解析部32から、撮影された画像の分析結果を取得し(S006)、画像に基づく推定位置(座標)が取得可能であるか否かを判断する(S007)。
If there is a reception area of the detection unit 40 within the imaging area of the imaging unit 50, the reception unit 37 receives data to analyze the photographed image, and outputs the received image data to the image analysis unit 32. And execute actual analysis processing (S005).
It should be noted that the analysis processing of the image is performed only when the object to be detected 10 is detected in the imaging area of the imaging unit 50 and the process proceeds to the ID integration processing because the load is large.
The analysis result of the photographed image is acquired from the image analysis unit 32 (S006), and it is determined whether the estimated position (coordinates) based on the image can be acquired (S007).

画像に基づく推定位置(座標)が取得可能である場合は、撮影された画像に基づく推定位置(座標)が、タグ情報から推定される検知手段40の受信領域内に存在するか否かを判断する(S008)。
撮影された画像に基づく推定位置(座標)が、タグ情報から推定される検知手段40の受信領域内に存在する場合は、その推定位置(座標)が前回データベースに登録されたものと同じか否かを判断する(S009)。
前回登録された推定位置(座標)と異なる場合は、画像に基づく推定位置(座標)とタグIDとを統合する(S010)。一方、前回登録された推定位置(座標)と同じ場合は、前回の推定位置とタグIDを統合する(S011)。
When the estimated position (coordinates) based on the image can be acquired, it is determined whether the estimated position (coordinates) based on the photographed image exists within the reception area of the detection means 40 estimated from the tag information. To do (S008).
If the estimated position (coordinates) based on the photographed image exists in the reception area of the detection means 40 estimated from the tag information, whether or not the estimated position (coordinates) is the same as that previously registered in the database It is determined (S009).
If it is different from the previously registered estimated position (coordinates), the estimated position (coordinates) based on the image and the tag ID are integrated (S010). On the other hand, if it is the same as the previously registered estimated position (coordinates), the previous estimated position and the tag ID are integrated (S011).

一方、撮影された画像に基づく推定位置(座標)が、タグ情報から推定される検知手段40の受信領域内に存在しない場合は、同一タグIDの過去の位置情報の有無を判断する(S012)。
同一タグIDの過去の位置情報が存在する場合は、前回の推定位置とタグIDを統合する(S011)。これは、例えば、撮影手段50の撮影領域内において検知された被検出対象10が、その後、撮影領域内であって検知手段40により検知されない位置に移動した場合が挙げられる。本実施形態においては、そのような場合であっても、画像解析手段による位置の推定が継続されることを意味する。
On the other hand, when the estimated position (coordinates) based on the photographed image does not exist in the reception area of the detection means 40 estimated from the tag information, it is judged whether or not there is past position information of the same tag ID (S012) .
If there is past position information of the same tag ID, the previous estimated position and the tag ID are integrated (S011). This may be the case, for example, when the detection target 10 detected in the imaging area of the imaging unit 50 is moved to a position within the imaging area and not detected by the detection unit 40. In this embodiment, even in such a case, it means that the estimation of the position by the image analysis means is continued.

これに対し、同一タグIDの過去の位置情報を確認できない場合は、位置情報(座標)とタグIDとの対応付けができない。また、画像から得られた推定位置(座標)に受信領域を有する検知手段40によってはタグ20が認識されない場合も、位置情報(座標)とタグIDとの対応付けができない。後者の場合、被検出対象10がタグ20を所持していない可能性も想定される。
これらの場合、被検出対象10が不明者であるとして、推定位置(座標)と不明者情報とを統合する(S013)。
On the other hand, when the past position information of the same tag ID can not be confirmed, the position information (coordinates) can not be associated with the tag ID. Further, even when the tag 20 is not recognized by the detection unit 40 having the reception area at the estimated position (coordinates) obtained from the image, the position information (coordinates) can not be associated with the tag ID. In the latter case, the possibility that the detection target 10 does not possess the tag 20 is also assumed.
In these cases, assuming that the detection target 10 is an unknown person, the estimated position (coordinates) and the unknown person information are integrated (S013).

ステップS007において、画像に基づく推定位置(座標)が取得可能でないと判断される場合、すなわち撮影手段50の撮影領域内に検知手段40の受信領域があるにもかかわらず、画像に基づく推定位置(座標)が取得できない場合としては、例えば、撮影手段50の死角にタグ20を所持した被検出対象10が存在するケースが想定される。この場合、タグ情報に基づく推定位置(領域)を、タグIDと統合する。   In step S 007, when it is determined that the estimated position (coordinates) based on the image is not obtainable, that is, although the reception area of the detection unit 40 is in the imaging area of the imaging unit 50, the estimated position (image As a case where the coordinates can not be acquired, for example, it is assumed that the detection target 10 carrying the tag 20 exists in the blind spot of the photographing means 50. In this case, the estimated position (area) based on the tag information is integrated with the tag ID.

タグ情報に基づく推定位置(領域)は、その推定位置(領域)が前回データベースに登録されたものと同じか否かを判断する(S014)。
前回登録された推定位置(領域)と異なる場合は、タグ情報に基づく推定位置(領域)とタグIDとを統合する(S015)。一方、前回登録された推定位置(領域)と同じ場合は、前回の推定位置とタグIDを統合する(S016)。
なお、ステップS014において、タグ情報に基づく推定位置(領域)は、検知手段40の位置情報及び識別情報発信手段20から受信した信号強度に基づいた判断を行うようにすることができる。
例えば、識別情報発信手段20からの信号強度が高ければ検知手段40に近く、信号強度が低ければ遠い等の判断をすることができる。また、信号強度を所定の閾値と比較し、その結果に応じてステップS016及びステップS015のいずれかへ進むように判断をすることもできる。
It is determined whether the estimated position (area) based on the tag information is the same as the one previously registered in the database (S014).
If the estimated position (area) is different from the previously registered estimated position (area), the estimated position (area) based on the tag information and the tag ID are integrated (S015). On the other hand, if it is the same as the previously registered estimated position (area), the previous estimated position and the tag ID are integrated (S016).
In step S014, the estimated position (area) based on the tag information can be determined based on the position information of the detection unit 40 and the signal strength received from the identification information transmission unit 20.
For example, if the signal strength from the identification information transmitting means 20 is high, it can be determined that the position is close to the detection means 40 and the signal strength is low if the signal strength is low. It is also possible to compare the signal strength with a predetermined threshold value and make a decision to proceed to either step S016 or step S015 according to the result.

上述のステップS010、S011、S013、S015、及びS016で統合された情報は、データベース34へ登録される(S017)。
すべての取得された検出結果についての判断が終了したか否かを判断し(S018)、終了していなければ再度ステップS002の対応表に基づく比較に戻って処理を続行する。
The information integrated in the above-mentioned steps S010, S011, S013, S015 and S016 is registered in the database 34 (S017).
It is determined whether the determination on all the acquired detection results is completed (S018), and if not completed, the process returns to the comparison based on the correspondence table in step S002 again to continue the process.

そして、取得された検出結果についての判断が終了した場合、検出を終了するか否かを判断し(S019)、終了しない場合は再度タグ情報の分析結果を取得(S001)し、次のフレームまたは所定時間経過後の被検出対象の検出及び判断の処理を繰り返す。
なお、上記の処理は原則、長時間継続して行われ、検出の終了は、システム上の機能のスリープや保守・点検の実施時に限られる。
Then, when the judgment on the acquired detection result is completed, it is judged whether or not the detection is ended (S019), and if not ended, the analysis result of the tag information is acquired again (S001), and the next frame or The processing of detection and judgment of the detection target after the elapse of a predetermined time is repeated.
In addition, the above-mentioned processing is basically performed for a long time, and the detection is limited to the time of sleep of the function on the system and the execution of maintenance / inspection.

以下、被検出対象10の位置の推定を行う態様について、図8〜図13に基づき説明する。図8〜図13は、図6(b)と同様、各領域を上から見た状態を模式的に示した図である。
なお、図8〜図13の模式図は、各領域面積と人物の位置関係を模式的に示したものであり、大きさの関係を表すものではない。また、検知手段40の設置数も図示した例に限定されない。
それぞれの処理は図2に示したようなサーバー30で行われ、サーバー30の統合部33には、図6(a)に示したような対応表が格納されている。
Hereinafter, the aspect which estimates the position of the to-be-detected object 10 is demonstrated based on FIGS. 8-13. 8 to 13 schematically show the respective regions viewed from the top, as in FIG. 6 (b).
Note that the schematic diagrams of FIGS. 8 to 13 schematically show the positional relationship between each area area and the person, and do not represent the size relationship. Also, the number of installed detection means 40 is not limited to the illustrated example.
Each process is performed by the server 30 as shown in FIG. 2, and the integration unit 33 of the server 30 stores a correspondence table as shown in FIG. 6 (a).

(例1)
図8には、撮影手段50、該撮影手段50の撮影領域60、3つの検知手段40(40a、40b、40c)、各検知手段40の受信領域R(Ra、Rb、Rc)、タグ20を備えた被検出対象10(人物)1名が示されている。
(Example 1)
In FIG. 8, a photographing unit 50, a photographing area 60 of the photographing unit 50, three detection units 40 (40a, 40b, 40c), a reception area R (Ra, Rb, Rc) of each detection unit 40, and a tag 20 are shown. One detected subject 10 (person) is shown.

本実施形態において、当該対応表は、撮影領域60と、各検知手段40の受信領域Ra、Rb、Rcの対応が示されたものである。
本実施形態では、検知手段40aによりタグ20が検出されている。また、撮影領域60内に人物10が検出されている。
In the present embodiment, the correspondence table indicates the correspondence between the imaging area 60 and the reception areas Ra, Rb, and Rc of the detection units 40.
In the present embodiment, the tag 20 is detected by the detection means 40a. In addition, a person 10 is detected in the imaging area 60.

前記対応表に従い、撮影手段50が撮影した画像から検出される人物10がタグ20を所持している人物であることが特定される。
この結果に基づき、データベース34には、人物10のタグ情報と位置情報とが統合されて登録される。
According to the correspondence table, it is specified that the person 10 detected from the image photographed by the photographing means 50 is the person possessing the tag 20.
Based on the result, the tag information and the position information of the person 10 are integrated and registered in the database 34.

(例2)
図9には、撮影手段50、該撮影手段50の撮影領域60、3つの検知手段40(40a、40b、40c)、各検知手段40の受信領域R(Ra、Rb、Rc)、タグ20を備えた被検出対象10(人物)1名が示されている。
(Example 2)
9, an imaging unit 50, an imaging area 60 of the imaging unit 50, three detection units 40 (40a, 40b, 40c), a reception area R (Ra, Rb, Rc) of each detection unit 40, and a tag 20 are shown. One detected subject 10 (person) is shown.

本実施態様において、検知手段40cによりタグ20が検出されている。一方、撮影領域60内において、人物10は検出されていない。   In the present embodiment, the tag 20 is detected by the detection means 40c. On the other hand, in the imaging area 60, the person 10 is not detected.

前記対応表に従い、撮影手段50が撮影した画像から人物10が検出されていないことから、タグ20を所持している人物10が、撮影領域60外の検知手段40cの受信領域Rc内にいることが特定される。
この結果に基づき、データベース34には、人物10のタグ情報と位置情報とが統合されて登録される。
Since the person 10 is not detected from the image photographed by the photographing means 50 according to the correspondence table, the person 10 carrying the tag 20 is within the reception area Rc of the detection means 40c outside the photographing area 60. Is identified.
Based on the result, the tag information and the position information of the person 10 are integrated and registered in the database 34.

(例3)
図10には、撮影手段50、該撮影手段50の撮影領域60、3つの検知手段40(40a、40b、40c)、各検知手段40の受信領域R(Ra、Rb、Rc)、タグ20aを備えた被検出対象10a(人物)とタグ20bを備えた被検出対象10b(人物)の2名が示されている。
(Example 3)
10, an imaging unit 50, an imaging area 60 of the imaging unit 50, three detection units 40 (40a, 40b, 40c), a reception area R (Ra, Rb, Rc) of each detection unit 40, and a tag 20a Two persons, the to-be-detected object 10a (person) and the to-be-detected object 10b (person) having the tag 20b, are shown.

本実施形態において、検知手段40aによりタグ20aが検出され、検知手段40bによりタグ20bが検出されている。撮影領域60において、人物2名(10a、10b)が検出されている。   In the present embodiment, the tag 20a is detected by the detection unit 40a, and the tag 20b is detected by the detection unit 40b. In the imaging area 60, two persons (10a, 10b) are detected.

前記対応表に従い、撮影手段50により近い位置にいる人物10aがセンサ40aにより検出されていることから、タグ20aを所持している人物であると特定される。同様に、撮影手段50から遠い位置にいる人物10bがセンサ40bにより検出されていることから、タグ20bを所持している人物であると特定される。
この結果に基づき、データベース34には、人物10a及び人物10bについて、それぞれのタグ情報と位置情報とが統合されて登録される。
Since the person 10a at a position closer to the photographing means 50 is detected by the sensor 40a according to the correspondence table, the person 10a is identified as the person carrying the tag 20a. Similarly, since the person 10b at a position far from the photographing means 50 is detected by the sensor 40b, the person 10b is identified as the person who holds the tag 20b.
Based on the result, the tag information and the position information of the person 10a and the person 10b are integrated and registered in the database 34.

(例4)
図11には、撮影手段50、該撮影手段50の撮影領域60、3つの検知手段40(40a、40b、40c)、各検知手段40の受信領域R(Ra、Rb、Rc)、タグ20aを備えた被検出対象10a(人物)とタグを備えていない被検出対象10b(人物)の2名が示されている。
(Example 4)
11, an imaging unit 50, an imaging area 60 of the imaging unit 50, three detection units 40 (40a, 40b, 40c), a reception area R (Ra, Rb, Rc) of each detection unit 40, and a tag 20a Two persons, the to-be-detected object 10a (person) and the to-be-detected object 10b (person) not having the tag, are shown.

本実施形態において、検知手段40aによりタグ20aが検出されている。検知手段40bの受信領域Rb内に人物10bがいるが、タグを所持していないために検知手段40bに検出されていない。
一方、撮影手段50により、人物10a及び人物10bの2名が検出されている。
In the present embodiment, the tag 20a is detected by the detection means 40a. Although the person 10b is in the reception area Rb of the detection means 40b, it is not detected by the detection means 40b because it does not have a tag.
On the other hand, the photographing unit 50 detects two persons 10a and 10b.

前記対応表に従い、撮影手段50により近い位置にいる人物10aがセンサ40aにより検出されていることから、タグ20aを所持している人物であると特定される。これに対し、撮影手段50から遠い位置にいる人物10bは、センサ40bにより検出されていないため、不明者とされる。
この結果に基づき、データベース34には、人物10aのタグ情報と位置情報とが統合されて登録される。一方、不明者とされた人物10bはデータベースには登録されないが、その推定位置については、不明者情報と統合されて登録されてもよい。
Since the person 10a at a position closer to the photographing means 50 is detected by the sensor 40a according to the correspondence table, the person 10a is identified as the person carrying the tag 20a. On the other hand, the person 10b at a position far from the photographing means 50 is not detected by the sensor 40b, and thus is regarded as an unknown person.
Based on the result, the tag information and the position information of the person 10a are integrated and registered in the database 34. On the other hand, although the person 10b determined as an unknown person is not registered in the database, the estimated position may be registered in combination with unknown person information.

(例5)
図13には、撮影手段50、該撮影手段50の撮影領域60、3つの検知手段40(40a、40b、40c)、各検知手段40の受信領域R(Ra、Rb、Rc)、タグ20を備えた被検出対象10(人物)1名が示されている。
図13は、例えば図8に示す態様においてデータベース34にタグ情報と位置情報とが統合されて登録された人物10が、その後、撮影領域60内であって検知手段40(40a、40b)により検知されない位置に移動した状態を示している。
(Example 5)
In FIG. 13, an imaging unit 50, an imaging area 60 of the imaging unit 50, three detection units 40 (40a, 40b, 40c), a reception area R (Ra, Rb, Rc) of each detection unit 40, and a tag 20 are shown. One detected subject 10 (person) is shown.
In FIG. 13, for example, in the mode shown in FIG. 8, the person 10 registered with the tag information and the position information integrated in the database 34 is then detected by the detecting means 40 (40a, 40b) within the photographing area 60. It shows that it has moved to a position where it can not be

本実施態様において、人物10は撮影領域60内で検出されているが、検知手段40aまたは40bによりタグ20は検出されてない。
この場合、同一タグの過去の位置情報の有無が判断され、位置情報が存在した場合は、前回の画像に基づく位置情報とタグ情報とが統合されて登録される。
In the present embodiment, the person 10 is detected in the imaging area 60, but the tag 20 is not detected by the detection means 40a or 40b.
In this case, the presence or absence of the past position information of the same tag is determined, and when the position information exists, the position information based on the previous image and the tag information are integrated and registered.

本実施形態の対象検出システムは、撮影領域60内において検知された人物10が、その後、撮影領域60内であって検知手段40(40a、40b)により検知されない位置に移動したときは、画像解析手段である画像解析部32による位置の推定が継続される。
すなわち、人物10が受信機器で受信可能なエリアから外に出た場合においても、撮影手段50で検出され続けている限りにおいて、タグ付けを継続可能である
The object detection system according to the present embodiment performs image analysis when the person 10 detected in the imaging area 60 subsequently moves to a position in the imaging area 60 that is not detected by the detection unit 40 (40a, 40b). The estimation of the position by the image analysis unit 32, which is a means, is continued.
That is, even when the person 10 goes out of the area that can be received by the receiving device, tagging can be continued as long as detection is continued by the imaging unit 50.

(例6)
本実施形態の対象検出システムは、検知手段40の受信した情報および/または撮影手段50により撮影された画像から、被検出対象10の位置の推定とともに姿勢の推定を行うことができる。
(Example 6)
The target detection system of the present embodiment can estimate the posture as well as the position of the detection target 10 from the information received by the detection unit 40 and / or the image captured by the imaging unit 50.

姿勢の推定において、例えば、人物の腰の位置に装着されたタグ20からは、歩行状態やしゃがんだ姿勢などが検知可能であるが、タグが装着されていない手の動きなどは検知できない。
一方、撮影手段50による画像からの推定を行う場合、学習させることにより、多様な姿勢・動作を認識させることが可能となる。
In the estimation of the posture, for example, a walking state or a crouched posture can be detected from the tag 20 mounted at the position of the waist of a person, but the movement of a hand without the tag mounted can not be detected.
On the other hand, when estimation from an image is performed by the photographing unit 50, it is possible to recognize various postures and actions by learning.

図12は、図8と同様の構成であり、撮影手段50、該撮影手段50の撮影領域60、3つの検知手段40(40a、40b、40c)、各検知手段40の受信領域R(Ra、Rb、Rc)、タグ20を備えた被検出対象10(人物)1名が示されている。
図8と同様、人物10は画像及びタグ情報の双方で特定が可能であるため、姿勢や動作を高い精度で推定することができると考えられる。
FIG. 12 has the same configuration as that of FIG. 8, and the imaging means 50, the imaging area 60 of the imaging means 50, the three detection means 40 (40a, 40b, 40c) and the reception area R (Ra, each detection means 40). One person to be detected 10 (person) having Rb, Rc) and a tag 20 is shown.
As in FIG. 8, since the person 10 can be specified by both the image and the tag information, it is considered that the posture and the motion can be estimated with high accuracy.

この結果に基づき、データベース34には、人物10のタグ情報、位置情報及び姿勢情報が統合されて登録される。   Based on the result, tag information, position information and posture information of the person 10 are integrated and registered in the database 34.

なお、図9に示した構成の例では、撮影手段50による画像からの姿勢の推定ができないため、検知手段40の情報に基づく姿勢の推定が行われる。得られた結果に基づき、データベース34には、タグ情報、位置情報及び姿勢情報が統合されて登録される。   In the example of the configuration shown in FIG. 9, since the photographing unit 50 can not estimate the posture from the image, the posture is estimated based on the information of the detection unit 40. Based on the obtained result, the tag information, the position information and the posture information are integrated and registered in the database 34.

上述のとおり、本実施形態の対象検出システムによれば、タグ20により得られる情報と、撮影手段50によって撮影された画像から得られる情報とを相補的に統合処理し、被検出対象10の位置情報等を欠損なく高精度に推定することができる。
そして、被検出対象の特定が困難な場合であっても、システムの負荷を軽減しつつ、最適な検出処理を行うことができる。
As described above, according to the target detection system of the present embodiment, the information obtained by the tag 20 and the information obtained from the image photographed by the photographing unit 50 are complementarily integrated and processed, and the position of the detection target 10 It is possible to estimate information and the like with high accuracy without loss.
Then, even when it is difficult to specify the detection target, it is possible to perform the optimum detection processing while reducing the load on the system.

<プログラム>
本実施形態の対象検出システムにおいて実行されるプログラムは以下のとおりである。
被検出対象10に装着され、該被検出対象10の識別情報を発信する識別情報発信手段20と、識別情報発信手段20から発信された信号を受信し、被検出対象10を検知する検知手段40と、撮影手段50と、該撮影手段50により撮影された画像に対して画像処理を行い、少なくとも被検出対象10の位置を推定する画像解析手段である画像解析部32と、制御手段と、を備える対象検出システムにおいて、被検出対象10が撮影手段50の撮影領域内において検知手段40により検知された場合と、検知されない場合とで、画像解析部32が異なる処理を実行させるプログラムである。
すなわち、本実施形態のプログラムによれば、被検出対象10が撮影手段50の撮影領域内において検知手段40により検知された場合は画像解析部32が被検出対象10の画像処理を経て被検出対象10の位置を推定が行われ、検知されない場合は画像解析部32が被検出対象10の画像処理は行われず、検知手段40による位置の推定が行われる。
<Program>
The programs executed in the target detection system of the present embodiment are as follows.
Identification information transmitting means 20 mounted on the detection subject 10 and transmitting identification information of the detection subject 10, and detection means 40 for receiving the signal transmitted from the identification information transmission means 20 and detecting the detection subject 10 An imaging unit 50, an image analysis unit 32 that is an image analysis unit that performs image processing on the image captured by the imaging unit 50, and estimates at least the position of the detection target 10; In the target detection system, the image analysis unit 32 executes different processing depending on whether the detection target 10 is detected by the detection unit 40 in the imaging area of the imaging unit 50 or not.
That is, according to the program of the present embodiment, when the detection target 10 is detected by the detection unit 40 in the imaging area of the imaging unit 50, the image analysis unit 32 performs the image processing of the detection target 10 and the detection target The position of 10 is estimated, and when it is not detected, the image analysis unit 32 does not perform image processing of the detection target 10, and the position estimation by the detection unit 40 is performed.

本実施形態の対象検出システムにおいて実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   The program executed in the target detection system of this embodiment is a file of an installable format or an executable format, and is a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), a USB (Universal) It may be configured to be recorded and provided in a computer readable recording medium such as Serial Bus), or may be configured to be provided or distributed via a network such as the Internet. In addition, various programs may be configured to be provided by being incorporated in a ROM or the like in advance.

10 被検出対象(人物)
20 識別情報発信手段(タグ)
30 サーバー
31 識別情報分析部
32 画像解析手段(画像解析部)
33 統合部
34 データベース
35 UI表示部
40 検知手段
50 撮影手段
60 撮影領域
10 Detection target (person)
20 Identification Information Transmission Means (Tag)
30 server 31 identification information analysis unit 32 image analysis means (image analysis unit)
33 integrated part 34 database 35 UI display part 40 detection means 50 imaging means 60 imaging area

特開2011−90408号公報JP, 2011-90408, A 特許第5370927号公報Patent No. 5370927 gazette

Claims (9)

被検出対象に装着され、該被検出対象の識別情報を発信する識別情報発信手段と、
前記識別情報発信手段から発信された信号を受信し、前記被検出対象を検知する検知手段と、
撮影手段と、
該撮影手段により撮影された画像に対して画像処理を行い、少なくとも前記被検出対象の位置を推定する画像解析手段と、
前記被検出対象が前記撮影手段の撮影領域内において前記検知手段により検知された場合と、検知されない場合とで、前記画像解析手段が異なる処理を実行するように制御する制御手段と、を備えることを特徴とする対象検出システム。
Identification information transmitting means which is attached to the detection target and transmits identification information of the detection target;
A detection unit that receives the signal transmitted from the identification information transmission unit and detects the detection target;
Shooting means,
An image analysis unit that performs image processing on the image captured by the imaging unit and estimates at least the position of the detection target;
Control means for controlling the image analysis means to execute different processes depending on whether the detection object is detected by the detection means or not in the imaging area of the imaging means; An object detection system characterized by
前記被検出対象が前記撮影手段の撮影領域内において前記検知手段により検知された場合は前記画像解析手段が前記被検出対象の画像処理を実行し、検知されない場合は前記画像解析手段が前記被検出対象の画像処理を実行しないことを特徴とする請求項1に記載の対象検出システム。   When the detection target is detected by the detection unit in the imaging area of the imaging unit, the image analysis unit executes image processing of the detection target, and when not detected, the image analysis unit detects the detection target. The object detection system according to claim 1, wherein the image processing of the object is not performed. 前記画像解析手段により推定された前記被検出対象の位置の情報と、当該被検出対象の識別情報とが関連づけられることを特徴とする請求項1または2に記載の対象検出システム。   The object detection system according to claim 1 or 2, wherein the information of the position of the detection object estimated by the image analysis means is associated with identification information of the detection object. 前記撮影手段の撮影領域内において検知された前記被検出対象が、前記撮影領域内であって前記検知手段により検知されない位置に移動したときは、前記画像解析手段による位置の推定が継続されることを特徴とする請求項1から3のいずれかに記載の対象検出システム。   When the object to be detected detected in the imaging area of the imaging means moves to a position within the imaging area that is not detected by the detection means, estimation of the position by the image analysis means is continued. The object detection system according to any one of claims 1 to 3, characterized in that 前記撮影手段の撮影領域内において検知された前記被検出対象が、前記撮影領域外または撮影不能位置に移動したときは、前記検知手段の受信した情報により位置の推定が行われることを特徴とする請求項1から4のいずれかに記載の対象検出システム。   When the object to be detected detected in the imaging area of the imaging means has moved to the outside of the imaging area or the non-imaging position, position estimation is performed based on the information received by the detection means. The object detection system according to any one of claims 1 to 4. 前記検知手段の受信した情報による前記被検出対象の位置の推定は、該検知手段の位置、及び前記識別情報発信手段から受信した信号強度に基づいて行われることを特徴とする請求項1から5のいずれかに記載の対象検出システム。   The estimation of the position of the detection target based on the information received by the detection means is performed based on the position of the detection means and the signal strength received from the identification information transmission means. The object detection system according to any one of the above. 前記被検出対象が人物であり、
前記検知手段の受信した情報および/または前記撮影手段により撮影された画像から、前記被検出対象の位置の推定とともに姿勢が推定されることを特徴とする請求項1から6のいずれかに記載の対象検出システム。
The detection target is a person,
The posture is estimated together with the estimation of the position of the object to be detected from the information received by the detection means and / or the image photographed by the photographing means. Object detection system.
被検出対象に装着された識別情報発信手段が、該被検出対象の識別情報を発信するステップと、
検知手段が、前記識別情報発信手段から発信された信号を受信し、前記被検出対象を検知するステップと
撮影手段により前記被検出対象が撮影されるステップと、
前記被検出対象が前記撮影手段の撮影領域内において前記検知手段により検知された場合と、検知されない場合とで、前記画像解析手段が異なる処理を実行し、
前記被検出対象が前記撮影手段の撮影領域内において前記検知手段により検知された場合は前記画像解析手段が前記被検出対象の画像処理を実行するステップと、
前記被検出対象の位置を推定するステップと、を備えることを特徴とする対象検出方法。
The identification information transmitting means mounted on the detection target transmitting the identification information of the detection target;
The detection means receives the signal transmitted from the identification information transmission means, and detects the object to be detected, and the object is detected by the photographing device.
The image analysis unit executes different processing depending on whether the detection target is detected by the detection unit or not in the imaging area of the imaging unit.
The image analysis unit executes image processing of the detection target when the detection target is detected by the detection unit in a shooting area of the shooting unit;
Estimating the position of the object to be detected.
被検出対象に装着され、該被検出対象の識別情報を発信する識別情報発信手段と、
前記識別情報発信手段から発信された信号を受信し、前記被検出対象を検知する検知手段と、
撮影手段と、
該撮影手段により撮影された画像に対して画像処理を行い、少なくとも前記被検出対象の位置を推定する画像解析手段と、
制御手段と、を備える対象検出システムにおいて、
前記被検出対象が前記撮影手段の撮影領域内において前記検知手段により検知された場合と、検知されない場合とで、前記画像解析手段が異なる処理を実行させることを特徴とするプログラム。
Identification information transmitting means which is attached to the detection target and transmits identification information of the detection target;
A detection unit that receives the signal transmitted from the identification information transmission unit and detects the detection target;
Shooting means,
An image analysis unit that performs image processing on the image captured by the imaging unit and estimates at least the position of the detection target;
An object detection system including control means;
A program characterized in that the image analysis unit executes different processing depending on whether the detection target is detected by the detection unit or not in the imaging area of the imaging unit.
JP2018197297A 2017-11-10 2018-10-19 Target detection system, method for detecting target, and program Withdrawn JP2019091437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/177,598 US20190147611A1 (en) 2017-11-10 2018-11-01 Object sensing system, object sensing method, and recording medium storing program code

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017217020 2017-11-10
JP2017217020 2017-11-10

Publications (1)

Publication Number Publication Date
JP2019091437A true JP2019091437A (en) 2019-06-13

Family

ID=66837407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018197297A Withdrawn JP2019091437A (en) 2017-11-10 2018-10-19 Target detection system, method for detecting target, and program

Country Status (1)

Country Link
JP (1) JP2019091437A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009224859A (en) * 2008-03-13 2009-10-01 Mizuho Information & Research Institute Inc Video recording management system, method and program
JP2011186751A (en) * 2010-03-08 2011-09-22 Takenaka Komuten Co Ltd Position estimating apparatus and program
JP2012155391A (en) * 2011-01-24 2012-08-16 Panasonic Corp Posture state estimation device and posture state estimation method
JP2015194930A (en) * 2014-03-31 2015-11-05 セコム株式会社 Information processing device and information processing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009224859A (en) * 2008-03-13 2009-10-01 Mizuho Information & Research Institute Inc Video recording management system, method and program
JP2011186751A (en) * 2010-03-08 2011-09-22 Takenaka Komuten Co Ltd Position estimating apparatus and program
JP2012155391A (en) * 2011-01-24 2012-08-16 Panasonic Corp Posture state estimation device and posture state estimation method
JP2015194930A (en) * 2014-03-31 2015-11-05 セコム株式会社 Information processing device and information processing system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
味八木 崇 外2名: "Wi−Fi位置推定と映像のパーティクルフィルタによる広域人物追跡", 電子情報通信学会技術研究報告 VOL.107 NO.129, JPN6022032212, 2 July 2007 (2007-07-02), ISSN: 0004839367 *
山上 勝義,谷川 徹: "カメラと無線タグのフュージョンによる移動体位置推定", パナソニック技報 第58巻 第4号, JPN6022032211, 15 January 2013 (2013-01-15), ISSN: 0004839366 *

Similar Documents

Publication Publication Date Title
US20200333789A1 (en) Information processing apparatus, information processing method, and medium
JP6141079B2 (en) Image processing system, image processing apparatus, control method therefor, and program
CN108885469B (en) System and method for initializing a target object in a tracking system
WO2018103689A1 (en) Relative azimuth control method and apparatus for unmanned aerial vehicle
TWI640931B (en) Image object tracking method and apparatus
WO2016031105A1 (en) Information-processing device, information processing method, and program
CN106447730A (en) Parameter estimation method, parameter estimation apparatus and electronic equipment
KR102315525B1 (en) Surveillance system and operation method thereof
JP6588413B2 (en) Monitoring device and monitoring method
CN108106613B (en) Positioning method and system based on visual assistance
EP3217637A1 (en) Remote control method and system for virtual operation interface
WO2017011945A1 (en) Attitude data input apparatus and method, and cradle head control apparatus and method
CN110930428A (en) Target tracking method and device, electronic equipment and storage medium
WO2015154359A1 (en) Method and device for implementing photographing
US9886761B2 (en) Information processing to display existing position of object on map
KR20200065316A (en) System and method for replying disaster situation using smart drone
CN104331884A (en) Parameter acqusition system and method during stair climbing of four-tentacle tracked robot
CN107404626B (en) Video live broadcast system based on robot
JP2019091437A (en) Target detection system, method for detecting target, and program
JP4742695B2 (en) Gaze recognition apparatus and gaze recognition method
JP6559987B2 (en) Person authentication device and person authentication method
WO2017029886A1 (en) Information processing device, information processing method, and program
JP2018092368A (en) Moving object state amount estimation device and program
JP2018147157A (en) Movable matter quantity-of-state prediction unit and program
JP2021103410A (en) Mobile body and imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20221111