JP2018061110A - Server device, network system, and sensor device - Google Patents

Server device, network system, and sensor device Download PDF

Info

Publication number
JP2018061110A
JP2018061110A JP2016196292A JP2016196292A JP2018061110A JP 2018061110 A JP2018061110 A JP 2018061110A JP 2016196292 A JP2016196292 A JP 2016196292A JP 2016196292 A JP2016196292 A JP 2016196292A JP 2018061110 A JP2018061110 A JP 2018061110A
Authority
JP
Japan
Prior art keywords
information
sensor
usefulness
unit
sensor information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016196292A
Other languages
Japanese (ja)
Inventor
彰 峯澤
Akira Minesawa
彰 峯澤
一之 宮澤
Kazuyuki Miyazawa
一之 宮澤
亮史 服部
Akifumi Hattori
亮史 服部
百代 日野
Momoyo Hino
百代 日野
友哉 澤田
Tomoya Sawada
友哉 澤田
守屋 芳美
Yoshimi Moriya
芳美 守屋
関口 俊一
Shunichi Sekiguchi
俊一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016196292A priority Critical patent/JP2018061110A/en
Publication of JP2018061110A publication Critical patent/JP2018061110A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow serviceability of sensor information to be enhanced.SOLUTION: A serviceability calculation part 13 calculates serviceability of sensor information from sensor information and attribute information received by a sensor information reception part 11. An instruction information generation part 14 updates the attribute information of the sensor information so that the serviceability calculated by the serviceability calculation part 13 is enhanced and creates instruction information indicating the attribute information after updating, and an instruction information transmission part 15 transmits the instruction information to sensor devices 1-1 to 1-N.SELECTED DRAWING: Figure 2

Description

この発明は、センサ機器から送信されたセンサ情報を受信するサーバ装置と、センサ機器及びサーバ装置を備えているネットワークシステムと、センサ情報を送信するセンサ機器とに関するものである。   The present invention relates to a server device that receives sensor information transmitted from a sensor device, a network system including the sensor device and the server device, and a sensor device that transmits sensor information.

以下の特許文献1には、複数のセンサ機器とサーバ装置が、無線ネットワークなどのネットワークで繋がっているネットワークシステムが開示されている。
このネットワークシステムのセンサ機器は、ネットワークを介して、センサ情報をサーバ装置に送信し、サーバ装置は、センサ機器から送信されたセンサ情報を受信する。
Patent Document 1 below discloses a network system in which a plurality of sensor devices and a server device are connected by a network such as a wireless network.
The sensor device of this network system transmits sensor information to the server device via the network, and the server device receives the sensor information transmitted from the sensor device.

国際公開第2015/118847号International Publication No. 2015/118847

従来のネットワークシステムは以上のように構成されているので、センサ機器から送信されたセンサ情報をサーバ装置が受信することができる。しかし、センサ機器から送信されるセンサ情報の属性が固定化されている。例えば、センサ機器から送信されるセンサ情報がカメラの映像であれば、映像のビットレート、解像度、圧縮方式などの属性が固定化されている。このため、センサ機器から送信されるセンサ情報の有用度が低くても、そのセンサ情報の有用度を高めることができず、サーバ装置が、有用度が高いセンサ情報を得られなくなることがあるという課題があった。
ここで、センサ情報の有用度は、センサ情報の活用価値を意味する。例えば、センサ機器が監視カメラであり、映像の解像度などが高ければ、映像が鮮明であるため、人の識別が容易になる。したがって、映像の解像度などが高ければ、監視カメラのセンサ情報の有用度は高いと言える。映像の解像度などが低い場合、映像の鮮明度が低いため、監視カメラのセンサ情報の有用度が低い場合が多いが、例えば、狭いエリアを監視カメラが撮影している状況下では、映像の解像度などが低い場合でも、エリア内の人を容易に識別できることがある。したがって、映像の解像度などが低い場合でも、監視カメラのセンサ情報の有用度が高いと言えることがある。
Since the conventional network system is configured as described above, the server apparatus can receive the sensor information transmitted from the sensor device. However, the attribute of the sensor information transmitted from the sensor device is fixed. For example, if the sensor information transmitted from the sensor device is a camera image, attributes such as the bit rate, resolution, and compression method of the image are fixed. For this reason, even if the usefulness of the sensor information transmitted from the sensor device is low, the usefulness of the sensor information cannot be increased, and the server device may not be able to obtain highly useful sensor information. There was a problem.
Here, the usefulness of the sensor information means the utility value of the sensor information. For example, if the sensor device is a monitoring camera and the resolution of the video is high, the video is clear, so that the person can be easily identified. Therefore, if the video resolution is high, it can be said that the usefulness of the sensor information of the surveillance camera is high. When the resolution of the video is low, the usefulness of the sensor information of the surveillance camera is often low because of the low definition of the video.For example, in the situation where the surveillance camera is shooting a narrow area, the video resolution In some cases, the person in the area can be easily identified even if it is low. Therefore, even when the resolution of the video is low, it can be said that the usefulness of the sensor information of the surveillance camera is high.

この発明は上記のような課題を解決するためになされたもので、センサ情報の有用度を高めることができるサーバ装置、ネットワークシステム及びセンサ機器を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to obtain a server device, a network system, and a sensor device that can increase the usefulness of sensor information.

この発明に係るサーバ装置は、センサ機器から送信されたセンサ情報及びセンサ情報の属性情報を受信するセンサ情報受信部と、センサ情報受信部により受信されたセンサ情報及び属性情報から、センサ情報の有用度を算出する有用度算出部と、有用度算出部により算出された有用度が高まるように、センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部とを設け、指示情報送信部が、指示情報生成部により生成された指示情報をセンサ機器に送信するようにしたものである。   The server device according to the present invention is useful for sensor information from a sensor information receiving unit that receives sensor information and sensor information attribute information transmitted from the sensor device, and sensor information and attribute information received by the sensor information receiving unit. A usefulness calculation unit for calculating the degree, and an instruction information generation unit for updating the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculation unit and generating instruction information indicating the updated attribute information The instruction information transmission unit transmits the instruction information generated by the instruction information generation unit to the sensor device.

この発明によれば、センサ機器から送信されたセンサ情報及びセンサ情報の属性情報を受信するセンサ情報受信部と、センサ情報受信部により受信されたセンサ情報及び属性情報から、センサ情報の有用度を算出する有用度算出部と、有用度算出部により算出された有用度が高まるように、センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部とを設け、指示情報送信部が、指示情報生成部により生成された指示情報をセンサ機器に送信するように構成したので、センサ機器から送信を受けるセンサ情報の有用度を高めることができる効果がある。   According to this invention, the usefulness of the sensor information is determined from the sensor information and the attribute information received by the sensor information receiving unit that receives the sensor information and the sensor information attribute information transmitted from the sensor device. A usefulness calculating unit for calculating, and an instruction information generating unit for updating the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculating unit and generating instruction information indicating the updated attribute information. Since the instruction information transmitting unit is configured to transmit the instruction information generated by the instruction information generating unit to the sensor device, the usefulness of the sensor information received from the sensor device can be increased.

この発明の実施の形態1によるネットワークシステムを示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the network system by Embodiment 1 of this invention. この発明の実施の形態1によるネットワークシステムのサーバ装置2を示す構成図である。It is a block diagram which shows the server apparatus 2 of the network system by Embodiment 1 of this invention. この発明の実施の形態1によるネットワークシステムのサーバ装置2のハードウェア構成図である。It is a hardware block diagram of the server apparatus 2 of the network system by Embodiment 1 of this invention. サーバ装置2がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。It is a hardware block diagram of a computer in case the server apparatus 2 is implement | achieved by software, firmware, etc. サーバ装置2がソフトウェアやファームウェアなどで実現される場合の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in case the server apparatus 2 is implement | achieved by software, firmware, etc. センサ機器1−1〜1−Nの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of sensor apparatus 1-1 to 1-N. サーバ装置2とセンサ機器1−1〜1−Nとの間の信号の送受信を示すシーケンス図である。It is a sequence diagram which shows transmission / reception of the signal between the server apparatus 2 and sensor apparatus 1-1 to 1-N. センサ情報及び属性情報と識別情報であるID(IDentification)との対応例を示す説明図である。It is explanatory drawing which shows the example of a response | compatibility with ID (IDentification) which is sensor information and attribute information, and identification information. 監視対象エリアの人密度分布状況の一例を示す説明図である。It is explanatory drawing which shows an example of the human density distribution condition of the monitoring object area. サーバ装置2とセンサ機器1−1〜1−4とを備えたネットワークシステムが監視対象エリアA,Bを監視している様子を示す説明図である。It is explanatory drawing which shows a mode that the network system provided with the server apparatus 2 and the sensor apparatuses 1-1 to 1-4 is monitoring the monitoring object areas A and B. FIG. サーバ装置2とセンサ機器1−1〜1−4とを備えたネットワークシステムが監視対象エリアA,Bを監視している様子を示す説明図である。It is explanatory drawing which shows a mode that the network system provided with the server apparatus 2 and the sensor apparatuses 1-1 to 1-4 is monitoring the monitoring object areas A and B. FIG. この発明の実施の形態2によるネットワークシステムを示す構成図である。It is a block diagram which shows the network system by Embodiment 2 of this invention. この発明の実施の形態2によるネットワークシステムのセンサ機器1−1〜1−Nを示す構成図である。It is a block diagram which shows the sensor apparatuses 1-1 to 1-N of the network system by Embodiment 2 of this invention. この発明の実施の形態2によるネットワークシステムのセンサ機器1−1〜1−Nのハードウェア構成図である。It is a hardware block diagram of the sensor apparatus 1-1 to 1-N of the network system by Embodiment 2 of this invention. センサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。It is a hardware block diagram of a computer in case the sensor apparatus 1-1 to 1-N is implement | achieved by software, firmware, etc. センサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される場合の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in case the sensor apparatuses 1-1 to 1-N are implement | achieved by software, firmware, etc. この発明の実施の形態3によるネットワークシステムを示す構成図である。It is a block diagram which shows the network system by Embodiment 3 of this invention. この発明の実施の形態3によるネットワークシステムを示す構成図である。It is a block diagram which shows the network system by Embodiment 3 of this invention. この発明の実施の形態4によるネットワークシステムを示す構成図である。It is a block diagram which shows the network system by Embodiment 4 of this invention.

以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。   Hereinafter, in order to describe the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.

実施の形態1.
図1はこの発明の実施の形態1によるネットワークシステムを示す構成図である。
図2はこの発明の実施の形態1によるネットワークシステムのサーバ装置2を示す構成図であり、図3はこの発明の実施の形態1によるネットワークシステムのサーバ装置2のハードウェア構成図である。
図1から図3において、センサ機器1−1〜1−Nはサーバ装置2から送信された指示情報を受信し、その指示情報が示す属性情報を有するセンサ情報及び当該センサ情報の属性情報をサーバ装置2に送信する。
サーバ装置2はセンサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報を受信する。
また、サーバ装置2はセンサ機器1−1〜1−Nから送信を受けるセンサ情報の属性情報を示す指示情報を生成し、その指示情報をセンサ機器1−1〜1−Nに送信する。
この実施の形態1では、センサ機器1−1〜1−Nを区別しない場合、センサ機器1のように表記することがある。
サーバ装置2とネットワーク3を介して接続されているセンサ機器1は、何台でもよいが、この実施の形態1では、N台のセンサ機器1−1〜1−Nが接続されている例を説明する。
ネットワーク3はセンサ機器1−1〜1−Nとサーバ装置2を接続している無線又は有線のネットワークである。
Embodiment 1 FIG.
1 is a block diagram showing a network system according to Embodiment 1 of the present invention.
FIG. 2 is a configuration diagram showing the server device 2 of the network system according to the first embodiment of the present invention, and FIG. 3 is a hardware configuration diagram of the server device 2 of the network system according to the first embodiment of the present invention.
1 to 3, the sensor devices 1-1 to 1-N receive the instruction information transmitted from the server device 2, and the sensor information having the attribute information indicated by the instruction information and the attribute information of the sensor information are stored in the server. Transmit to device 2.
The server device 2 receives the sensor information and attribute information transmitted from the sensor devices 1-1 to 1-N.
Further, the server device 2 generates instruction information indicating attribute information of sensor information received from the sensor devices 1-1 to 1-N, and transmits the instruction information to the sensor devices 1-1 to 1-N.
In the first embodiment, when the sensor devices 1-1 to 1-N are not distinguished, they may be expressed as the sensor device 1.
Any number of sensor devices 1 may be connected to the server apparatus 2 via the network 3, but in the first embodiment, N sensor devices 1-1 to 1-N are connected. explain.
The network 3 is a wireless or wired network connecting the sensor devices 1-1 to 1-N and the server device 2.

サーバ装置2のデータ送受信部10はセンサ情報受信部11と指示情報送信部15を備えている。
センサ情報受信部11は例えば図3のセンサ情報受信回路31で実現されるものである。
センサ情報受信部11はネットワーク3を介してセンサ機器1−1〜1−Nと接続されており、センサ機器1−1〜1−Nから送信されたセンサ情報及びセンサ情報の属性情報を受信する。
The data transmitting / receiving unit 10 of the server device 2 includes a sensor information receiving unit 11 and an instruction information transmitting unit 15.
The sensor information receiving unit 11 is realized by, for example, the sensor information receiving circuit 31 of FIG.
The sensor information receiving unit 11 is connected to the sensor devices 1-1 to 1-N via the network 3, and receives the sensor information and the sensor information attribute information transmitted from the sensor devices 1-1 to 1-N. .

記憶部12は例えば図3の記憶回路32で実現されるものであり、センサ情報受信部11により受信されたセンサ情報及びセンサ情報の属性情報を記憶する。
有用度算出部13は例えば図3の有用度算出回路33で実現されるものである。
有用度算出部13は記憶部12に記憶されているセンサ機器1−n(n=1,2,・・・,N)のセンサ情報及びセンサ情報の属性情報から、そのセンサ情報の有用度を算出する処理を実施する。
The storage unit 12 is realized by, for example, the storage circuit 32 of FIG. 3 and stores the sensor information received by the sensor information receiving unit 11 and the attribute information of the sensor information.
The usefulness calculation unit 13 is realized by, for example, the usefulness calculation circuit 33 in FIG.
The usefulness calculation unit 13 calculates the usefulness of the sensor information from the sensor information of the sensor device 1-n (n = 1, 2,..., N) stored in the storage unit 12 and the attribute information of the sensor information. Perform the calculation process.

指示情報生成部14は例えば図3の指示情報生成回路34で実現されるものである。
指示情報生成部14は有用度算出部13により算出されたセンサ情報の有用度が高まるように、センサ機器1−nから送信を受けるセンサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する処理を実施する。
指示情報送信部15は例えば図3の指示情報送信回路35で実現されるものである。
指示情報送信部15は指示情報生成部14により生成された指示情報をセンサ機器1−nに送信する処理を実施する。
なお、センサ機器1−1〜1−Nから送信されたセンサ情報の有用度が互いに異なる場合、指示情報送信部15からセンサ機器1−1〜1−Nに送信される指示情報が示す更新後の属性情報は、互いに異なる属性情報となる。
The instruction information generation unit 14 is realized by, for example, the instruction information generation circuit 34 of FIG.
The instruction information generation unit 14 updates the attribute information of the sensor information received from the sensor device 1-n so that the usefulness of the sensor information calculated by the usefulness calculation unit 13 is increased, and indicates the updated attribute information. A process of generating instruction information is performed.
The instruction information transmission unit 15 is realized by, for example, the instruction information transmission circuit 35 of FIG.
The instruction information transmission unit 15 performs a process of transmitting the instruction information generated by the instruction information generation unit 14 to the sensor device 1-n.
In addition, when the usefulness of the sensor information transmitted from the sensor devices 1-1 to 1-N is different from each other, the updated information indicated by the instruction information transmitted from the instruction information transmitting unit 15 to the sensor devices 1-1 to 1-N. The attribute information is different attribute information.

図2では、サーバ装置2の構成要素であるセンサ情報受信部11、記憶部12、有用度算出部13、指示情報生成部14及び指示情報送信部15のそれぞれが、図3に示すような専用のハードウェア、即ち、センサ情報受信回路31、記憶回路32、有用度算出回路33、指示情報生成回路34及び指示情報送信回路35で実現されるものを想定している。
ここで、記憶回路32は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
また、センサ情報受信回路31、有用度算出回路33、指示情報生成回路34及び指示情報送信回路35は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
In FIG. 2, each of the sensor information receiving unit 11, the storage unit 12, the usefulness calculating unit 13, the instruction information generating unit 14, and the instruction information transmitting unit 15 that are components of the server device 2 is dedicated as illustrated in FIG. 3. Hardware, that is, a sensor information receiving circuit 31, a storage circuit 32, a usefulness calculating circuit 33, an instruction information generating circuit 34, and an instruction information transmitting circuit 35 are assumed.
Here, the memory circuit 32 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory Memory, or an EEPROM (Electrically Erasable Memory). A volatile semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), and the like are applicable.
The sensor information receiving circuit 31, the usefulness calculating circuit 33, the instruction information generating circuit 34, and the instruction information transmitting circuit 35 are, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application), or the like. A specific integrated circuit (FPGA), a field-programmable gate array (FPGA), or a combination thereof is applicable.

サーバ装置2の構成要素は、専用のハードウェアで実現されるものに限るものではなく、サーバ装置2がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
The components of the server device 2 are not limited to those realized by dedicated hardware, and the server device 2 may be realized by software, firmware, or a combination of software and firmware.
Software and firmware are stored as programs in the memory of the computer. The computer means hardware that executes a program, and includes, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a DSP (Digital Signal Processor), and the like. .

図4はサーバ装置2がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
サーバ装置2がソフトウェアやファームウェアなどで実現される場合、記憶部12をコンピュータのメモリ41上に構成するとともに、センサ情報受信部11、有用度算出部13、指示情報生成部14及び指示情報送信部15の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納し、コンピュータのプロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
図5はサーバ装置2がソフトウェアやファームウェアなどで実現される場合の処理手順を示すフローチャートである。
FIG. 4 is a hardware configuration diagram of a computer when the server apparatus 2 is realized by software, firmware, or the like.
When the server device 2 is realized by software, firmware, or the like, the storage unit 12 is configured on the memory 41 of the computer, and the sensor information reception unit 11, the usefulness calculation unit 13, the instruction information generation unit 14, and the instruction information transmission unit A program for causing the computer to execute the 15 processing procedures may be stored in the memory 41, and the processor 42 of the computer may execute the program stored in the memory 41.
FIG. 5 is a flowchart showing a processing procedure when the server device 2 is realized by software, firmware, or the like.

また、図3ではサーバ装置2の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図4では、サーバ装置2がソフトウェアやファームウェアなどで実現される例を示しているが、サーバ装置2における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
図6はセンサ機器1−1〜1−Nの処理手順を示すフローチャートである。
図7はサーバ装置2とセンサ機器1−1〜1−Nとの間の信号の送受信を示すシーケンス図である。
3 shows an example in which each component of the server device 2 is realized by dedicated hardware, and FIG. 4 shows an example in which the server device 2 is realized by software, firmware, or the like. Some components in the apparatus 2 may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.
FIG. 6 is a flowchart showing a processing procedure of the sensor devices 1-1 to 1-N.
FIG. 7 is a sequence diagram illustrating transmission / reception of signals between the server apparatus 2 and the sensor devices 1-1 to 1-N.

次に動作について説明する。
この実施の形態1では、センサ機器1−1〜1−Nがカメラであって、センサ情報がカメラにより撮影された映像及び音声、センサ情報の属性情報が映像及び音声の属性情報である例を説明する。
カメラにより撮影された映像としては、例えば、カメラの映像データ、カメラの映像データが圧縮されたストリームデータなどが考えられる。
また、カメラにより撮影された映像の属性情報としては、例えば、以下に示す情報などが考えられる。
Next, the operation will be described.
In the first embodiment, the sensor devices 1-1 to 1-N are cameras, and the sensor information is video and audio captured by the camera, and the sensor information attribute information is video and audio attribute information. explain.
Examples of the video captured by the camera include camera video data, stream data obtained by compressing the camera video data, and the like.
Further, as the attribute information of the video imaged by the camera, for example, the following information can be considered.

(1)カメラ映像の色フォーマット
例えば、RGB、YCbCrなどの色フォーマット
(2)カメラ映像における画素のビット深度
(3)カメラ映像のフレームレート
(4)キャリブレーションに必要なカメラパラメータ
例えば、焦点距離等のカメラパラメータ
(5)カメラ映像の圧縮方式
(6)カメラの映像データを圧縮する際の設定パラメータ
例えば、ビットレート、解像度、フレームレート、画素のビット深度、色フォーマットなどの設定パラメータ
(1) Color format of camera video For example, RGB, YCbCr color format, etc. (2) Bit depth of pixel in camera video (3) Frame rate of camera video (4) Camera parameters required for calibration, eg focal length (5) Camera video compression method (6) Setting parameters when compressing camera video data For example, setting parameters such as bit rate, resolution, frame rate, pixel bit depth, and color format

図8はセンサ情報及び属性情報と識別情報であるID(IDentification)との対応例を示す説明図である。
図8の例では、ID=15の圧縮ストリームがセンサ情報であり、ID=0〜14がセンサ情報の属性情報である。この圧縮ストリームは、映像圧縮ストリームと音声圧縮ストリームを含んでいる。
ID=12におけるカメラの位置情報と、ID=13におけるx,y,z軸方向のカメラの回転角度と、ID=14の焦点距離とは、厳密にはカメラの属性情報であるが、図8の例では、センサ情報の属性情報に含めている。
FIG. 8 is an explanatory diagram showing an example of correspondence between sensor information and attribute information and ID (IDentification) which is identification information.
In the example of FIG. 8, the compressed stream with ID = 15 is sensor information, and ID = 0 to 14 is attribute information of sensor information. This compressed stream includes a video compressed stream and an audio compressed stream.
Strictly speaking, the position information of the camera at ID = 12, the rotation angle of the camera in the x, y, and z-axis directions at ID = 13, and the focal length of ID = 14 are camera attribute information. In the example, it is included in the attribute information of the sensor information.

サーバ装置2の指示情報生成部14は、センサ機器1−1〜1−Nから送信を受けるセンサ情報の属性情報を決定し、その属性情報を示す指示情報を生成する。
指示情報生成部14による指示情報の生成処理についての詳細は後述する。
サーバ装置2の指示情報送信部15は、指示情報生成部14が指示情報を生成すると、ネットワーク3を介して、その指示情報をセンサ機器1−1〜1−Nに送信する(図5のステップST1、図7のステップST31)。
The instruction information generation unit 14 of the server device 2 determines attribute information of sensor information received from the sensor devices 1-1 to 1-N, and generates instruction information indicating the attribute information.
Details of the instruction information generation processing by the instruction information generation unit 14 will be described later.
When the instruction information generation unit 14 generates the instruction information, the instruction information transmission unit 15 of the server device 2 transmits the instruction information to the sensor devices 1-1 to 1-N via the network 3 (step in FIG. 5). ST1, step ST31 in FIG. 7).

ここで、指示情報送信部15がセンサ機器1−1〜1−Nに送信する指示情報は、センサ機器1−1〜1−Nからの送信を希望する属性情報に対応するIDを含む情報である。
また、指示情報送信部15がセンサ機器1−1〜1−Nに送信する指示情報は、IDに対応する属性情報の変更を指示する制御情報を含む情報である。ただし、指示情報は、IDに対応する属性情報を変更する必要がない場合、制御情報を含まない。
例えば、センサ機器1−1〜1−Nからの送信を希望する属性情報が、映像のフレームレート、映像の圧縮方式、映像圧縮ストリームのビットレートである場合、指示情報は、ID=4,5,6を含んでいる。
ここでは、IDが0〜15の整数である例を示しているが、センサ情報及び属性情報を識別することができれば、どのような情報でもよい。
この実施の形態1では、指示情報送信部15がIDを含む指示情報を送信する例を説明するが、IDを含む指示情報を送信するものに限るものではない。
例えば、15個の属性情報に対応するID順に、当該属性情報の送信を要求している旨を示す“1”、または、当該属性情報の送信を要求していない旨を示す“0”などのデータが並んでいる指示情報としてもよい。
例えば、15個の属性情報のうち、ID=4とID=5の属性情報の送信を要求するが、それ以外の属性情報の送信を要求しない場合、“000011000000000”のような指示情報が考えられる。
Here, the instruction information transmitted to the sensor devices 1-1 to 1-N by the instruction information transmitting unit 15 is information including an ID corresponding to attribute information desired to be transmitted from the sensor devices 1-1 to 1-N. is there.
In addition, the instruction information transmitted from the instruction information transmitting unit 15 to the sensor devices 1-1 to 1-N is information including control information that instructs to change the attribute information corresponding to the ID. However, the instruction information does not include control information when there is no need to change the attribute information corresponding to the ID.
For example, when the attribute information desired to be transmitted from the sensor devices 1-1 to 1-N is a video frame rate, a video compression method, and a video compression stream bit rate, the instruction information includes ID = 4, 5 , 6.
Here, an example in which the ID is an integer of 0 to 15 is shown, but any information may be used as long as sensor information and attribute information can be identified.
In the first embodiment, an example in which the instruction information transmission unit 15 transmits instruction information including an ID will be described. However, the present invention is not limited to transmitting instruction information including an ID.
For example, “1” indicating that the transmission of the attribute information is requested or “0” indicating that the transmission of the attribute information is not requested in the ID order corresponding to the 15 pieces of attribute information. Instruction information in which data is arranged may be used.
For example, out of 15 pieces of attribute information, if transmission of attribute information with ID = 4 and ID = 5 is requested, but transmission of other attribute information is not requested, instruction information such as “000011000000000000” is considered. .

センサ機器1−1〜1−Nは、サーバ装置2の指示情報送信部15から指示情報が送信されていなければ(図6のステップST21:NOの場合)、指示情報送信部15から指示情報が送信されるまで待機する。
センサ機器1−1〜1−Nは、サーバ装置2の指示情報送信部15から指示情報が送信されてくると(図6のステップST21:YESの場合)、指示情報送信部15から送信された指示情報を受信する(図6のステップST22)。
If the instruction information is not transmitted from the instruction information transmitting unit 15 of the server device 2 (in the case of step ST21: NO in FIG. 6), the sensor devices 1-1 to 1-N receive the instruction information from the instruction information transmitting unit 15. Wait until it is sent.
When the instruction information is transmitted from the instruction information transmission unit 15 of the server device 2 (step ST21 in FIG. 6: YES), the sensor devices 1-1 to 1-N are transmitted from the instruction information transmission unit 15. The instruction information is received (step ST22 in FIG. 6).

センサ機器1−1〜1−Nは、受信した指示情報に制御情報が含まれていれば(図6のステップST23:YESの場合)、その指示情報に含まれている制御情報に従って、その指示情報に含まれているIDに対応する属性情報を変更する(図6のステップST24)。
例えば、指示情報に含まれている制御情報が、ID=4における映像のフレームレートを“xxx”に変更する旨を指示する情報であれば、センサ情報である圧縮ストリームに含まれる映像圧縮ストリームのフレームレートが“xxx”になるように属性情報を変更する。
また、例えば、指示情報に含まれている制御情報が、ID=5における映像の圧縮方式を“BB”に変更する旨を指示する情報であれば、センサ情報である圧縮ストリームに含まれる映像圧縮ストリームの圧縮方式が“BB”になるように属性情報を変更する。
センサ機器1−1〜1−Nは、指示情報送信部15から送信された指示情報に制御情報が含まれていなければ(図6のステップST23:NOの場合)、センサ情報の属性情報を変更する処理を行わない。
If the received instruction information includes control information (step ST23 in FIG. 6: YES), the sensor devices 1-1 to 1-N perform the instruction according to the control information included in the instruction information. The attribute information corresponding to the ID included in the information is changed (step ST24 in FIG. 6).
For example, if the control information included in the instruction information is information indicating that the frame rate of the video with ID = 4 is to be changed to “xxx”, the video compression stream included in the compressed stream that is sensor information. The attribute information is changed so that the frame rate becomes “xxx”.
Further, for example, if the control information included in the instruction information is information indicating that the video compression method with ID = 5 is to be changed to “BB”, the video compression included in the compressed stream that is sensor information The attribute information is changed so that the compression method of the stream is “BB”.
If the control information is not included in the instruction information transmitted from the instruction information transmission unit 15 (step ST23 in FIG. 6: NO), the sensor devices 1-1 to 1-N change the attribute information of the sensor information. Do not perform the process.

次に、センサ機器1−1〜1−Nは、時刻tの映像を撮影し、その映像を圧縮することで、映像圧縮ストリームを生成する。また、センサ機器1−1〜1−Nは、時刻tの音声を圧縮することで、音声圧縮ストリームを生成する。
センサ機器1−1〜1−Nは、センサ情報として、映像圧縮ストリーム及び音声圧縮ストリームを含む圧縮ストリームをサーバ装置2に送信する(図6のステップST25、図7のステップST32)。
また、センサ機器1−1〜1−Nは、指示情報に含まれているIDに対応する属性情報をサーバ装置2に送信する(図6のステップST25、図7のステップST32)。
例えば、指示情報に含まれているIDが、ID=4とID=5である場合、センサ機器1−1〜1−Nは、属性情報として、映像のフレームレート及び映像の圧縮方式をサーバ装置2に送信する。
Next, the sensor devices 1-1 to 1-N capture a video at time t and compress the video to generate a video compression stream. In addition, the sensor devices 1-1 to 1-N generate audio compression streams by compressing audio at time t.
The sensor devices 1-1 to 1-N transmit, as sensor information, a compressed stream including a video compression stream and an audio compression stream to the server device 2 (step ST25 in FIG. 6 and step ST32 in FIG. 7).
The sensor devices 1-1 to 1-N transmit attribute information corresponding to the ID included in the instruction information to the server device 2 (step ST25 in FIG. 6 and step ST32 in FIG. 7).
For example, when the IDs included in the instruction information are ID = 4 and ID = 5, the sensor devices 1-1 to 1-N specify the video frame rate and the video compression method as the attribute information in the server device. 2 to send.

サーバ装置2のセンサ情報受信部11は、センサ機器1−1〜1−Nからセンサ情報及び属性情報が送信されていなければ(図5のステップST2:NOの場合)、センサ機器1−1〜1−Nからセンサ情報及び属性情報が送信されるまで待機する。
サーバ装置2のセンサ情報受信部11は、センサ機器1−1〜1−Nからセンサ情報及び属性情報が送信されてくると(図5のステップST2:YESの場合)、そのセンサ情報及び属性情報を受信する(図5のステップST3)。
サーバ装置2のセンサ情報受信部11は、センサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報を受信すると、そのセンサ情報及び属性情報を記憶部12に格納する(図5のステップST4)。
例えば、指示情報に含まれているIDが、ID=4とID=5である場合、センサ情報受信部11は、属性情報として、映像のフレームレート及び映像の圧縮方式を記憶部12に格納する。
If sensor information and attribute information are not transmitted from the sensor devices 1-1 to 1-N (in the case of step ST2 in FIG. 5: NO), the sensor information receiving unit 11 of the server device 2 is configured to have sensor devices 1-1 to 1-1. It waits until sensor information and attribute information are transmitted from 1-N.
When sensor information and attribute information are transmitted from the sensor devices 1-1 to 1-N (step ST2 in FIG. 5: YES), the sensor information receiving unit 11 of the server device 2 receives the sensor information and attribute information. Is received (step ST3 in FIG. 5).
When the sensor information receiving unit 11 of the server apparatus 2 receives the sensor information and attribute information transmitted from the sensor devices 1-1 to 1-N, the sensor information receiving unit 11 stores the sensor information and attribute information in the storage unit 12 (FIG. 5). Step ST4).
For example, if the IDs included in the instruction information are ID = 4 and ID = 5, the sensor information receiving unit 11 stores the video frame rate and the video compression method in the storage unit 12 as attribute information. .

センサ情報受信部11における図5のステップST2〜ST4の処理は、全てのセンサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報の受信を完了するまでの間、繰り返し実施される(図5のステップST5:NOの場合)。
センサ情報受信部11が全てのセンサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報を受信すると(図5のステップST5:YESの場合)、サーバ装置2の有用度算出部13がセンサ情報の有用度を算出する処理を開始する。
The processes of steps ST2 to ST4 in FIG. 5 in the sensor information receiving unit 11 are repeatedly performed until the reception of the sensor information and attribute information transmitted from all the sensor devices 1-1 to 1-N is completed. (Step ST5 in FIG. 5: NO).
When the sensor information receiving unit 11 receives the sensor information and attribute information transmitted from all the sensor devices 1-1 to 1-N (step ST5 in FIG. 5: YES), the usefulness calculating unit 13 of the server device 2 is used. Starts the process of calculating the usefulness of the sensor information.

ここでは、センサ情報受信部11が、全てのセンサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報を受信すると、有用度算出部13がセンサ情報の有用度を算出する処理を開始する例を説明するが、これに限るものではない。
例えば、指示情報送信部15が指示情報を送信した時点から、事前に設定された時間を経過しても、センサ情報受信部11が、一部のセンサ機器1のセンサ情報及び属性情報を受信することができない場合でも、有用度算出部13が有用度の算出処理を開始するようにしてもよい。
一部のセンサ機器1のセンサ情報及び属性情報を受信することができない場合でも、有用度算出部13がセンサ情報の有用度を算出する処理を開始することで、一部のセンサ機器1の不具合に伴ってネットワークシステムの処理が停止してしまうリスクを低減することができる。
Here, when the sensor information receiving unit 11 receives the sensor information and attribute information transmitted from all the sensor devices 1-1 to 1-N, the usefulness calculating unit 13 performs a process of calculating the usefulness of the sensor information. An example of starting is described, but the present invention is not limited to this.
For example, the sensor information receiving unit 11 receives sensor information and attribute information of some sensor devices 1 even if a preset time has elapsed since the instruction information transmitting unit 15 transmitted the instruction information. Even when it is not possible, the usefulness calculating unit 13 may start the usefulness calculating process.
Even when the sensor information and attribute information of some sensor devices 1 cannot be received, the usefulness calculation unit 13 starts the process of calculating the usefulness of the sensor information, so that the malfunction of some sensor devices 1 Accordingly, it is possible to reduce the risk that the processing of the network system stops.

サーバ装置2の有用度算出部13は、記憶部12に格納されているセンサ機器1−n(n=1,2,・・・,N)のセンサ情報及び属性情報から、そのセンサ情報の有用度を算出する(図5のステップST6)。
即ち、有用度算出部13は、記憶部12に格納されているセンサ機器1−nのセンサ情報及び属性情報を取得する。
以下、説明の便宜上、センサ情報及び属性情報を「関数変数dn,k(t)」として取得する。k=1,2,・・・,Kである。
例えば、記憶部12に(K−1)個の属性情報が格納されている場合、有用度算出部13は、関数変数dn,1(t)としてセンサ情報を取得し、関数変数dn,2(t)〜dn,K(t)として(K−1)個の属性情報を取得する。
具体的には、例えば、センサ情報として圧縮ストリーム、属性情報として映像のフレームレート及び映像の圧縮方式が記憶部12に格納されている場合、有用度算出部13は、関数変数dn,1(t)として圧縮ストリームを取得し、関数変数dn,2(t)として映像のフレームレートを取得し、関数変数dn,3(t)として映像の圧縮方式を取得する。
ここでは、センサ情報である圧縮ストリームを関数変数dn,1(t)としているが、これは一例に過ぎず、圧縮ストリームを関数変数dn,2(t)又は関数変数dn,3(t)としてもよい。
The usefulness calculation unit 13 of the server device 2 uses the sensor information useful from the sensor information and attribute information of the sensor device 1-n (n = 1, 2,..., N) stored in the storage unit 12. The degree is calculated (step ST6 in FIG. 5).
That is, the usefulness calculation unit 13 acquires sensor information and attribute information of the sensor device 1-n stored in the storage unit 12.
Hereinafter, for convenience of explanation, sensor information and attribute information are acquired as “function variable d n, k (t)”. k = 1, 2,...
For example, when (K−1) pieces of attribute information are stored in the storage unit 12, the usefulness calculation unit 13 acquires sensor information as the function variable d n, 1 (t), and the function variable d n, 2 (t) to dn , K (K-1) pieces of attribute information are acquired as (t).
Specifically, for example, when the storage stream 12 stores the compressed stream as the sensor information and the video frame rate and the video compression method as the attribute information, the usefulness calculation unit 13 sets the function variable dn , 1 ( get the compressed stream as t), we obtain the frame rate of the video as a function variable d n, 2 (t), obtains the compression method of the video as a function variable d n, 3 (t).
Here, the compressed stream that is sensor information is a function variable dn , 1 (t), but this is only an example, and the compressed stream is a function variable dn , 2 (t) or a function variable dn , 3 ( t).

有用度算出部13は、センサ機器1−nのセンサ情報及び属性情報である関数変数dn,k(t)(k=1,2,・・・,K)を取得すると、以下の式(1)に示すように、関数変数dn,k(t)を関数f(・)(k=1,2,・・・,K)に代入することで、センサ機器1−nの有用度S(t)を算出する。

Figure 2018061110
n=1,2,・・・,N

式(1)において、f(dn,k(t))はセンサ機器1−nの有用度S(t)を決めるk番目(k=1,2,・・・,K)の要素の有用度を示すスコアを算出する関数である。この実施の形態1では、説明の便宜上、f(dn,k(t))は、有用度が高い程、スコアが高くなる関数であるものとするが、有用度が高い程、スコアが低くなる関数であってもよい。
(k=1,2,・・・,K)は関数f(dn,k(t))の重み係数、aはオフセット係数である。
この実施の形態1では、関数f(・)、重み係数a及びオフセット係数aは、事前に設定されているものとする。
式(1)の例では、関数f(・)〜f(・)に代入する関数変数がdn,1(t)〜dn,K(t)であり、関数毎に、代入する関数変数が異なる例を示しているが、関数f(・)〜f(・)に代入する関数変数が同じであってもよい。
このため、関数f(・)〜f(・)に代入する関数変数が、例えば、全てdn,1(t)であってもよいし、全てdn,2(t)であってもよい。
また、関数f(・)〜f(・)に代入する関数変数が、全てdn,1(t)であって、関数f(・)〜f(・)に代入する関数変数が、全てdn,2(t)であってもよい。 When the usefulness calculation unit 13 obtains the function variable dn , k (t) (k = 1, 2,..., K) that is sensor information and attribute information of the sensor device 1-n, the following formula ( As shown in 1), the usefulness of the sensor device 1-n is obtained by substituting the function variable dn , k (t) into the function f k (·) (k = 1, 2,..., K). S n (t) is calculated.
Figure 2018061110
n = 1, 2,..., N

In equation (1), f k (dn , k (t)) is a k-th (k = 1, 2,..., K) element that determines the usefulness S n (t) of the sensor device 1-n. It is a function which calculates the score which shows the usefulness of. In the first embodiment, for convenience of explanation, f k (d n, k (t)) is a function whose score increases as the usefulness increases. However, the score increases as the usefulness increases. It may be a lowering function.
a k (k = 1, 2,..., K) is a weight coefficient of the function f k (dn , k (t)), and a 0 is an offset coefficient.
In the first embodiment, it is assumed that the function f k (·), the weight coefficient a k and the offset coefficient a 0 are set in advance.
In the example of Expression (1), the function variables to be assigned to the functions f 1 (·) to f K (·) are dn , 1 (t) to dn , K (t), and are assigned for each function. Although an example in which the function variables are different is shown, the function variables to be assigned to the functions f 1 (•) to f K (•) may be the same.
For this reason, all the function variables to be assigned to the functions f 1 (·) to f K (·) may be, for example, dn, 1 (t), or all dn , 2 (t). Also good.
Further, all the function variables to be assigned to the functions f 1 (·) to f 5 (·) are d n, 1 (t), and the function variables to be assigned to the functions f 6 (·) to f K (·). May all be d n, 2 (t).

以下、関数f(dn,k(t))の具体例を列挙する。
ここでは、センサ機器1−nがカメラであり、センサ情報がカメラにより撮影された映像である場合の関数f(dn,k(t))の具体例(1)〜(7)を説明する。
Hereinafter, specific examples of the function f k (dn , k (t)) are listed.
Here, specific examples (1) to (7) of the function f k (dn , k (t)) in the case where the sensor device 1-n is a camera and the sensor information is an image captured by the camera will be described. To do.

(1)関数f(dn,k(t))として、以下の式(2)に示すように、カメラにより撮影された時刻tの映像の動き量を算出する関数が挙げられる。

Figure 2018061110
式(2)において、areamotion(dn,k(t))は時刻tの映像内で動きがある領域の面積を示し、areaall(dn,k(t))は時刻tの映像全体の面積を示すものである。動きがある領域の面積は当該領域の解像度に相当し、映像全体の面積は映像全体の解像度に相当する。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
A(areamotion(dn,k(t))/areaall(dn,k(t)))は、動きがある領域の面積率を変数とする関数であり、動きがある領域の面積率が大きい程、有用度が高くなる値を返す関数である。例えば、人が密集しているようなエリアをカメラが撮影している場合、一般的に映像内で動きがある領域の面積が大きくなるため、A(・)は密集エリアを撮影しているカメラのセンサ情報の有用度を高める関数となる。 (1) As the function f k (d n, k (t)), as shown in the following formula (2), there is a function for calculating the motion amount of the video imaged at the time t taken by the camera.
Figure 2018061110
In equation (2), area motion (dn , k (t)) indicates the area of a region where there is motion in the video at time t, and area all (dn , k (t)) is the entire video at time t. The area is shown. The area of a region where there is movement corresponds to the resolution of the region, and the area of the entire image corresponds to the resolution of the entire image.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
A (area motion (dn , k (t)) / area all (dn , k (t))) is a function having the area ratio of the area with motion as a variable, and the area ratio of the area with motion It is a function that returns a value whose usefulness is higher as is larger. For example, if the camera is shooting an area where people are crowded, the area of the region where there is movement generally increases in the video, so A (•) is the camera shooting the crowded area. This is a function that increases the usefulness of sensor information.

(2)関数f(dn,k(t))として、以下の式(3)に示すように、カメラにより撮影された時刻tの映像の平均動き量を算出する関数が挙げられる。

Figure 2018061110
式(3)において、meanmotion(dn,k(t))は時刻tの映像内の平均動き量を示すものである。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
B(meanmotion(dn,k(t)))は映像全体の平均動き量を変数とする関数であり、映像内の平均の動きが大きい程、有用度が高くなる値を返す関数である。例えば、映像内の多くの人が動いているような状況下では、一般的に映像全体の平均動き量が大きくなるため、B(・)はこのような状況を撮影しているカメラのセンサ情報の有用度を高める関数となる。 (2) As the function f k (d n, k (t)), as shown in the following formula (3), there is a function for calculating the average motion amount of the video imaged at time t taken by the camera.
Figure 2018061110
In equation (3), mean motion (dn , k (t)) represents the average motion amount in the video at time t.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
B (mean motion (dn , k (t))) is a function that uses the average motion amount of the entire video as a variable, and returns a value that increases the degree of usefulness as the average motion in the video increases. . For example, in a situation where many people in the video are moving, the average motion amount of the entire video generally becomes large, so B (•) is sensor information of a camera that is shooting such a situation. It becomes a function that increases the usefulness of.

(3)関数f(dn,k(t))として、以下の式(4)に示すように、カメラにより撮影された時刻tの映像内に存在している人の数をカウントする関数が挙げられる。

Figure 2018061110
式(4)において、count(dn,k(t))は映像内に存在している人の数を示すものである。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
C(count(dn,k(t)))は映像内に存在している人の数を変数とする関数であり、人数が多い程、有用度が高くなる値を返す関数である。例えば、人が密集しているようなエリアをカメラが撮影している場合、映像内に存在している人の数が多くなるため、C(・)は密集エリアを撮影しているカメラのセンサ情報の有用度を高める関数となる。 (3) As a function f k (dn , k (t)), as shown in the following formula (4), a function for counting the number of people present in the video at time t photographed by the camera Is mentioned.
Figure 2018061110
In equation (4), count (dn , k (t)) indicates the number of people present in the video.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
C (count (dn , k (t))) is a function that uses the number of people present in the video as a variable, and returns a value that increases the usefulness as the number of people increases. For example, when a camera is shooting an area where people are crowded, the number of people present in the video increases, so C (•) is a sensor of a camera shooting a crowded area. This function increases the usefulness of information.

(4)関数f(dn,k(t))として、以下の式(5)に示すように、カメラにより撮影された時刻tの映像内に混雑度を特定する関数が挙げられる。

Figure 2018061110
式(5)において、density(dn,k(t))は映像内の人の混雑度を示すものである。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
D(density(dn,k(t)))は映像内の人の混雑度を変数とする関数であり、混雑度が高い程、有用度が高くなる値を返す関数である。例えば、人が混雑しているエリアをカメラが撮影している場合、映像内の人の混雑度が高くなるため、D(・)は人が混雑しているエリアを撮影しているカメラのセンサ情報の有用度を高める関数となる。 (4) As the function f k (d n, k (t)), as shown in the following equation (5), a function for specifying the degree of congestion in the video at time t photographed by the camera can be mentioned.
Figure 2018061110
In equation (5), density (dn , k (t)) represents the degree of congestion of people in the video.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
D (density (dn , k (t))) is a function that uses the degree of congestion of people in the video as a variable, and is a function that returns a value that increases the degree of usefulness as the degree of congestion increases. For example, when the camera is shooting an area where people are crowded, the degree of crowding of people in the video increases, so D (•) is a sensor of a camera shooting an area where people are crowded. This function increases the usefulness of information.

(5)関数f(dn,k(t))として、以下の式(6)に示すように、カメラにより撮影された時刻tの映像内に存在している人の識別容易度を特定する関数が挙げられる。

Figure 2018061110
式(6)において、humanSize(dn,k(t))は映像内に存在している人の領域に含まれる画素の数と、映像内に存在している人の体の包含度とに基づく、人の識別容易度を示すものである。体の包含度は、人の全身が映像内に映っている場合には100%になり、人の半分が映像内に映っている場合には50%になる。また、人の識別容易度は、映像内の物体が人であるか否かを識別する際の識別の容易さを示す指標である。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
E(humanSize(dn,k(t)))は映像内に存在している人の識別容易度を変数とする関数であり、識別容易度が高い程、有用度が高くなる値を返す関数である。例えば、カメラが人の全身を撮影している場合、人の識別容易度が高くなるため、E(・)は人の全身を撮影しているカメラのセンサ情報の有用度を高める関数となる。 (5) As a function f k (d n, k (t)), as shown in the following formula (6), the identification degree of the person existing in the video at time t photographed by the camera is specified. Function.
Figure 2018061110
In equation (6), humanSize (dn , k (t)) is the number of pixels included in the person's area existing in the image and the inclusion level of the person's body existing in the image. It shows the person's identification ease based. The inclusion level of the body is 100% when the whole body of the person is reflected in the video, and 50% when half of the person is reflected in the video. Also, the person identification ease is an index indicating the ease of identification when identifying whether or not the object in the video is a person.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
E (humanSize (dn , k (t))) is a function having a variable of the ease of identification of a person existing in the video, and a function that returns a value that increases the usefulness as the ease of identification increases. It is. For example, when the camera captures the whole body of a person, the degree of human identification becomes high. Therefore, E (•) is a function that increases the usefulness of sensor information of a camera that captures the whole body of a person.

(6)関数f(dn,k(t))として、以下の式(7)に示すように、全てのカメラが同じエリアを撮影してしまう状況を回避するために、同じエリアを多くのカメラが撮影している場合、絶対値が大きな負値を返す関数が挙げられる。

Figure 2018061110
式(7)において、F(n,dn,1(t),dn,2(t),・・・,dn,K(t))は同じエリアを多くのカメラが撮影している場合、ペナルティ値として、絶対値が大きな負値を返すペナルティ関数である。
関数変数dn,k(t)としては、例えば、ID=12におけるカメラの位置情報、ID=13におけるx,y,z軸方向のカメラの回転角度、ID=14の焦点距離、ID=15の圧縮ストリームに含まれている映像圧縮ストリームなどを用いることができる。
例えば、同じエリアを多くのカメラが撮影している場合、F(・)は絶対値が大きな負値を返すため、F(・)は他のカメラと同じエリアを撮影しているカメラのセンサ情報の有用度を下げる関数となる。
これにより、全てのカメラが同じエリアを撮影してしまって、撮影していないエリアが生まれる状況を回避することができるようになる。 (6) As a function f k (d n, k (t)), as shown in the following formula (7), in order to avoid a situation where all the cameras capture the same area, the same area is increased. A function that returns a negative value with a large absolute value when the camera is shooting.
Figure 2018061110
In the expression (7), F (n, dn , 1 (t), dn , 2 (t),..., Dn , K (t)) are taken by the same camera by many cameras. In this case, the penalty function returns a negative value having a large absolute value as a penalty value.
As the function variable d n, k (t), for example, the position information of the camera at ID = 12, the rotation angle of the camera in the x, y, and z axis directions at ID = 13, the focal length of ID = 14, ID = 15 A compressed video stream included in the compressed stream can be used.
For example, when many cameras are shooting the same area, F (•) returns a negative value with a large absolute value, so F (•) is sensor information of the camera shooting the same area as other cameras. It is a function that lowers the usefulness of.
As a result, it is possible to avoid a situation in which all the cameras have photographed the same area and an area not photographed is born.

(7)関数f(dn,k(t))として、以下の式(8)に示すように、センサ情報の符号量を算出する関数が挙げられる。

Figure 2018061110
式(8)において、bit(dn,k(t))は、センサ情報を送信するのに要する符号量である送信ビット数を示すものである。
関数変数dn,k(t)としては、例えば、ID=6における映像圧縮ストリームのビットレート、ID=11における音声圧縮ストリームのビットレートなどを用いることができる。
GF(bit(dn,k(t)))はセンサ情報の送信ビット数を変数とする関数であり、送信ビット数が少ない程、有用度が高くなる値を返す関数である。これにより、センサ情報の通信量を削減することができるようになる。 (7) As the function f k (d n, k (t)), as shown in the following equation (8), a function for calculating the code amount of the sensor information can be cited.
Figure 2018061110
In equation (8), bit (dn , k (t)) indicates the number of transmission bits that is the amount of code required to transmit the sensor information.
As the function variable d n, k (t), for example, the bit rate of the video compression stream at ID = 6, the bit rate of the audio compression stream at ID = 11, and the like can be used.
GF (bit (dn , k (t))) is a function that uses the number of transmission bits of sensor information as a variable, and is a function that returns a value that becomes more useful as the number of transmission bits decreases. Thereby, the communication amount of sensor information can be reduced.

サーバ装置2の指示情報生成部14は、有用度算出部13がセンサ機器1−nから送信されたセンサ情報の有用度S(t)を算出すると、その有用度S(t)が高まるように、センサ機器1−nから送信されたセンサ情報の属性情報を更新する。
指示情報生成部14において、有用度S(t)が高まるように属性情報を更新する処理自体は公知の技術であるため詳細な説明を省略するが、例えば、以下に示すような処理を実施することで、有用度S(t)が高まるように属性情報を更新することができる。
When the usefulness calculating unit 13 calculates the usefulness S n (t) of the sensor information transmitted from the sensor device 1-n, the instruction information generating unit 14 of the server device 2 increases the usefulness S n (t). As described above, the attribute information of the sensor information transmitted from the sensor device 1-n is updated.
In the instruction information generation unit 14, the process itself for updating the attribute information so as to increase the usefulness S n (t) is a known technique, and thus detailed description thereof is omitted. For example, the following process is performed. By doing so, attribute information can be updated so that usefulness Sn (t) may increase.

まず、指示情報生成部14は、センサ機器1−nであるカメラの映像を解析して、センサ機器1−nの監視対象エリア内の人数、または、センサ機器1−nの監視対象エリアに対する人の流量を求める。
指示情報生成部14は、センサ機器1−nの監視対象エリア内の人数、または、センサ機器1−nの監視対象エリアに対する人の流量を求めると、監視対象エリア内の人数から監視対象エリアの人分布状況を算出する。あるいは、指示情報生成部14は、監視対象エリアに対する人の流量から図9に示すような監視対象エリアの人密度分布状況を算出する。
図9は監視対象エリアの人密度分布状況の一例を示す説明図である。
First, the instruction information generation unit 14 analyzes the video of the camera that is the sensor device 1-n, and the number of people in the monitoring target area of the sensor device 1-n or the person in the monitoring target area of the sensor device 1-n. Obtain the flow rate of
When the instruction information generation unit 14 obtains the number of people in the monitoring target area of the sensor device 1-n or the flow rate of the person with respect to the monitoring target area of the sensor device 1-n, the instruction information generation unit 14 determines the monitoring target area from the number of people in the monitoring target area. Calculate the distribution of people. Alternatively, the instruction information generation unit 14 calculates the human density distribution situation in the monitoring target area as shown in FIG. 9 from the flow rate of the person with respect to the monitoring target area.
FIG. 9 is an explanatory diagram showing an example of a human density distribution situation in the monitoring target area.

次に、指示情報生成部14は、監視対象エリアの人分布状況又は人密度分布状況に基づいて、センサ情報の属性情報を調整しながら、式(1)に示す有用度S(t)を繰り返し算出するコンピュータシミュレーションを実施する。
例えば、有用度S(t)の算出に用いている属性情報が、D=4における映像のフレームレートと、ID=6における映像圧縮ストリームのビットレートとである場合、指示情報生成部14は、そのフレームレートとビットレートを調整しながら、フレームレートとビットレートの組み合わせ分だけ、有用度S(t)を繰り返し算出する。
指示情報生成部14は、コンピュータシミュレーションによって算出した全ての有用度S(t)を比較して、最大の有用度S(t)を特定し、最大の有用度S(t)になるときの属性情報を特定する。
例えば、有用度S(t)の算出に用いている属性情報が、フレームレートとビットレートである場合、指示情報生成部14は、最大の有用度S(t)になるときのフレームレートとビットレートを特定する。
Next, the instruction information generation unit 14 adjusts the usefulness S n (t) shown in Expression (1) while adjusting the attribute information of the sensor information based on the human distribution situation or the human density distribution situation of the monitoring target area. Perform computer simulation to calculate repeatedly.
For example, when the attribute information used for calculating the usefulness S n (t) is the frame rate of the video at D = 4 and the bit rate of the video compression stream at ID = 6, the instruction information generation unit 14 The usefulness S n (t) is repeatedly calculated for the combination of the frame rate and the bit rate while adjusting the frame rate and the bit rate.
Instruction information generating unit 14 compares all the usefulness S n calculated by a computer simulation (t), to identify the maximum usefulness S n (t), becomes maximum usefulness S n (t) Attribute information is specified.
For example, when the attribute information used for calculating the usefulness S n (t) is the frame rate and the bit rate, the instruction information generating unit 14 determines the frame rate when the maximum usefulness S n (t) is reached. And specify the bitrate.

指示情報生成部14は、最大の有用度S(t)になるときの属性情報を特定すると、次回、センサ機器1−nから、その特定した属性情報を有するセンサ情報を受信することができるように、センサ情報の属性情報を特定した属性情報に更新する。
指示情報生成部14は、センサ機器1−1〜1−Nについて、更新後の属性情報を示す指示情報を生成し、その指示情報を指示情報送信部15に出力する(図5のステップST7)。
ここでは、説明の便宜上、更新前の属性情報に対応するIDと、更新後の属性情報に対応するIDとが同じであり、センサ機器1−nから送信を受ける属性情報の種類は変更されないものとする。
ただし、指示情報生成部14により属性情報が更新されることで、その属性情報の内容が変更されることがある。属性情報の内容の変更は、例えば、属性情報が映像圧縮ストリームのビットレートであれば、ビットレートの変更を意味し、属性情報が映像のフレームレートであれば、フレームレートの変更を意味する。
When the instruction information generation unit 14 specifies the attribute information when the maximum usefulness S n (t) is specified, the instruction information generation unit 14 can receive the sensor information having the specified attribute information from the sensor device 1-n next time. As described above, the attribute information of the sensor information is updated to the specified attribute information.
The instruction information generation unit 14 generates instruction information indicating the updated attribute information for the sensor devices 1-1 to 1-N, and outputs the instruction information to the instruction information transmission unit 15 (step ST7 in FIG. 5). .
Here, for convenience of explanation, the ID corresponding to the attribute information before update is the same as the ID corresponding to the attribute information after update, and the type of attribute information transmitted from the sensor device 1-n is not changed. And
However, the attribute information may be changed by updating the attribute information by the instruction information generation unit 14. The change of the content of the attribute information means, for example, a change in the bit rate if the attribute information is the bit rate of the video compression stream, and a change in the frame rate if the attribute information is the frame rate of the video.

指示情報生成部14により生成される指示情報は、更新後の属性情報に対応するIDを含んでいる。
更新前の属性情報の内容と、更新後の属性情報の内容とが同じである場合、センサ機器1−nが、センサ情報の属性情報を更新後の属性情報に変更する制御を行う必要がないため、指示情報生成部14により生成される指示情報には制御情報が含まれない。
更新前の属性情報の内容と、更新後の属性情報の内容とが異なる場合、センサ機器1−nが、センサ情報の属性情報を更新後の属性情報に変更する制御を行う必要があるため、指示情報生成部14により生成される指示情報には制御情報が含まれる。
指示情報生成部14は、例えば、ID=6における映像圧縮ストリームのビットレートをBRからBRに更新している場合、映像圧縮ストリームのビットレートをBRからBRに変更する旨を指示する制御情報を指示情報に含める。
The instruction information generated by the instruction information generation unit 14 includes an ID corresponding to the updated attribute information.
When the content of the attribute information before the update and the content of the attribute information after the update are the same, it is not necessary for the sensor device 1-n to perform control to change the attribute information of the sensor information to the updated attribute information. Therefore, the control information is not included in the instruction information generated by the instruction information generation unit 14.
When the content of the attribute information before the update is different from the content of the attribute information after the update, the sensor device 1-n needs to perform control to change the attribute information of the sensor information to the attribute information after the update. The instruction information generated by the instruction information generation unit 14 includes control information.
For example, when the bit rate of the video compression stream at ID = 6 is updated from BR 1 to BR 2 , the instruction information generation unit 14 instructs to change the bit rate of the video compression stream from BR 1 to BR 2. Control information to be included in the instruction information.

サーバ装置2の指示情報送信部15は、指示情報生成部14からセンサ機器1−1〜1−Nについての指示情報を受けると、センサ機器1−1〜1−Nについての指示情報をセンサ機器1−1〜1−Nに送信する(図5のステップST8、図7のステップST33)。   When the instruction information transmission unit 15 of the server device 2 receives the instruction information about the sensor devices 1-1 to 1-N from the instruction information generation unit 14, the instruction information about the sensor devices 1-1 to 1-N is received from the sensor device. 1-1 to 1-N (step ST8 in FIG. 5 and step ST33 in FIG. 7).

センサ機器1−1〜1−Nは、サーバ装置2の指示情報送信部15から指示情報が送信されていなければ(図6のステップST21:NOの場合)、指示情報送信部15から指示情報が送信されるまで待機する。
センサ機器1−1〜1−Nは、サーバ装置2の指示情報送信部15から指示情報が送信されてくると(図6のステップST21:YESの場合)、指示情報送信部15から送信された指示情報を受信する(図6のステップST22)。
If the instruction information is not transmitted from the instruction information transmitting unit 15 of the server device 2 (in the case of step ST21: NO in FIG. 6), the sensor devices 1-1 to 1-N receive the instruction information from the instruction information transmitting unit 15. Wait until it is sent.
When the instruction information is transmitted from the instruction information transmission unit 15 of the server device 2 (step ST21 in FIG. 6: YES), the sensor devices 1-1 to 1-N are transmitted from the instruction information transmission unit 15. The instruction information is received (step ST22 in FIG. 6).

センサ機器1−1〜1−Nは、受信した指示情報に制御情報が含まれていれば(図6のステップST23:YESの場合)、その指示情報に含まれている制御情報に従って、その指示情報に含まれているIDに対応する属性情報を変更する(図6のステップST24)。
例えば、指示情報に含まれている制御情報が、映像圧縮ストリームのビットレートをBRからBRに変更する旨を指示する制御情報である場合、センサ機器1−1〜1−Nは、映像圧縮ストリームのビットレートをBRからBRに変更する。
If the received instruction information includes control information (step ST23 in FIG. 6: YES), the sensor devices 1-1 to 1-N perform the instruction according to the control information included in the instruction information. The attribute information corresponding to the ID included in the information is changed (step ST24 in FIG. 6).
For example, when the control information included in the instruction information is control information instructing to change the bit rate of the video compression stream from BR 1 to BR 2 , the sensor devices 1-1 to 1-N The bit rate of the compressed stream is changed from BR 1 to BR 2 .

次に、センサ機器1−1〜1−Nは、時刻tの映像を撮影し、その映像を圧縮することで、映像圧縮ストリームを生成する。また、センサ機器1−1〜1−Nは、時刻tの音声を圧縮することで、音声圧縮ストリームを生成する。
センサ機器1−1〜1−Nは、センサ情報として、映像圧縮ストリーム及び音声圧縮ストリームを含む圧縮ストリームをサーバ装置2に送信する(図6のステップST25、図7のステップST34)。
センサ機器1−1〜1−Nは、例えば、映像圧縮ストリームのビットレートをBRからBRに変更している場合、ビットレートがBRである映像圧縮ストリームを含む圧縮ストリームをサーバ装置2に送信する。
以降、サーバ装置2及びセンサ機器1−1〜1−Nは、同様の処理を繰り返し実施する(図7のステップST33、ST34)。
即ち、サーバ装置2は、図5のステップST2〜ST8の処理を繰り返し実施し、センサ機器1−1〜1−Nは、図6のステップST21〜ST25の処理を繰り返し実施する。
Next, the sensor devices 1-1 to 1-N capture a video at time t and compress the video to generate a video compression stream. In addition, the sensor devices 1-1 to 1-N generate audio compression streams by compressing audio at time t.
The sensor devices 1-1 to 1-N transmit, as sensor information, a compressed stream including a video compression stream and an audio compression stream to the server device 2 (step ST25 in FIG. 6 and step ST34 in FIG. 7).
For example, when the bit rate of the video compression stream is changed from BR 1 to BR 2 , the sensor devices 1-1 to 1-N transmit the compressed stream including the video compression stream having the bit rate of BR 2 to the server device 2. Send to.
Thereafter, the server device 2 and the sensor devices 1-1 to 1-N repeatedly perform the same processing (steps ST33 and ST34 in FIG. 7).
That is, the server apparatus 2 repeatedly performs the processes of steps ST2 to ST8 in FIG. 5, and the sensor devices 1-1 to 1-N repeatedly perform the processes of steps ST21 to ST25 in FIG.

以上で明らかなように、この実施の形態1によれば、センサ機器1−1〜1−Nから送信されたセンサ情報及びセンサ情報の属性情報を受信するセンサ情報受信部11と、センサ情報受信部11により受信されたセンサ情報及び属性情報から、センサ情報の有用度を算出する有用度算出部13と、有用度算出部13により算出された有用度が高まるように、センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部14とを設け、指示情報送信部15が、指示情報生成部14により生成された指示情報をセンサ機器1−1〜1−Nに送信するように構成したので、センサ機器1−1〜1−Nから送信を受けるセンサ情報の有用度を高めることができる効果を奏する。   As apparent from the above, according to the first embodiment, the sensor information receiving unit 11 that receives the sensor information and the attribute information of the sensor information transmitted from the sensor devices 1-1 to 1-N, and the sensor information reception From the sensor information and the attribute information received by the unit 11, the usefulness calculating unit 13 that calculates the usefulness of the sensor information, and the attribute information of the sensor information so that the usefulness calculated by the usefulness calculating unit 13 is increased. An instruction information generation unit 14 that updates and generates instruction information indicating the updated attribute information is provided, and the instruction information transmission unit 15 converts the instruction information generated by the instruction information generation unit 14 into sensor devices 1-1 to 1-1. Since it is configured to transmit to -N, there is an effect that the usefulness of the sensor information received from the sensor devices 1-1 to 1-N can be increased.

この実施の形態1では、サーバ装置2が、センサ機器1−nから送信を受ける属性情報の種類を変更しない例を説明したが、例えば、サーバ装置2が、ユーザによる設定変更を受けることで、属性情報の種類を変更するものであってもよい。
サーバ装置2がセンサ機器1−nから送信を受ける属性情報の種類を変更する場合、指示情報生成部14が、種類変更後の属性情報に対応するIDを含む指示情報を生成し、指示情報送信部15が、その指示情報をセンサ機器1−1〜1−Nに送信する。
ここでは、ユーザによる設定変更を受けることで、サーバ装置2が属性情報の種類を変更する例を示しているが、これに限るものではない。
例えば、事前に設定された時間を経過しても、内容が更新されていない属性情報に対応するIDを指示情報から除外するようにしてもよい。また、事前に設定された時間以上、IDが指示情報に含まれていない属性情報に対応するIDを指示情報に含めるようにしてもよい。
In this Embodiment 1, although the server apparatus 2 demonstrated the example which does not change the kind of attribute information received from the sensor apparatus 1-n, the server apparatus 2 receives the setting change by a user, for example, The type of attribute information may be changed.
When the server device 2 changes the type of attribute information transmitted from the sensor device 1-n, the instruction information generation unit 14 generates instruction information including an ID corresponding to the attribute information after the type change, and transmits the instruction information. The unit 15 transmits the instruction information to the sensor devices 1-1 to 1-N.
Here, an example in which the server device 2 changes the type of attribute information by receiving a setting change by the user is shown, but the present invention is not limited to this.
For example, an ID corresponding to attribute information whose content has not been updated even after a preset time may be excluded from the instruction information. In addition, an ID corresponding to attribute information whose ID is not included in the instruction information may be included in the instruction information for a preset time or more.

この実施の形態1では、有用度算出部13が、センサ機器1−nから送信された時刻tのセンサ情報の有用度S(t)を算出し、指示情報生成部14が、有用度S(t)が高まるように、時刻tのセンサ情報の属性情報を更新する例を示している。
この例に限るものではなく、有用度算出部13が、時刻(t+t’)のセンサ情報の有用度S(t+t’)を予測し、指示情報生成部14が、有用度S(t+t’)が高まるように、時刻(t+t’)のセンサ情報の属性情報を更新するものであってもよい。ただし、tは現在時刻であり、t’>0であるため、(t+t’)は未来の時刻である。
有用度算出部13は、有用度S(t+t’)を予測する場合、センサ機器1−nから送信される時刻(t+t’)のセンサ情報を予測する必要がある。時刻(t+t’)のセンサ情報を予測する処理自体は公知の技術であるため詳細な説明を省略するが、例えば、センサ情報の予測モデルを用いれば、時刻tを含む時刻t以前のセンサ情報から時刻(t+t’)のセンサ情報を予測することができる。
有用度算出部13は、時刻(t+t’)のセンサ情報を予測すると、時刻(t+t’)のセンサ情報及び属性情報である関数変数dn,k(t+t’)を式(1)に代入することで、センサ機器1−nの有用度S(t+t’)を算出する。
指示情報生成部14は、有用度S(t+t’)が高まるように、時刻(t+t’)のセンサ情報の属性情報を更新する。この属性情報の更新処理は、時刻tのセンサ情報の属性情報を更新する場合と同様の処理である。
In the first embodiment, the usefulness calculation unit 13 calculates the usefulness S n (t) of the sensor information at time t transmitted from the sensor device 1-n, and the instruction information generation unit 14 uses the usefulness S. In the example, the attribute information of the sensor information at time t is updated so that n (t) increases.
The usefulness calculator 13 predicts the usefulness S n (t + t ′) of the sensor information at time (t + t ′), and the instruction information generator 14 uses the usefulness S n (t + t ′). ), The attribute information of the sensor information at time (t + t ′) may be updated. However, since t is the current time and t ′> 0, (t + t ′) is a future time.
When the usefulness calculation unit 13 predicts the usefulness S n (t + t ′), it is necessary to predict the sensor information at the time (t + t ′) transmitted from the sensor device 1-n. The process for predicting sensor information at time (t + t ′) is a known technique and will not be described in detail. For example, if a sensor information prediction model is used, sensor information before time t including time t is used. Sensor information at time (t + t ′) can be predicted.
When the usefulness calculation unit 13 predicts the sensor information at time (t + t ′), the sensor variable at time (t + t ′) and the function variable d n, k (t + t ′) , which is attribute information, are substituted into equation (1). Thus, the usefulness S n (t + t ′) of the sensor device 1-n is calculated.
The instruction information generation unit 14 updates the attribute information of the sensor information at time (t + t ′) so that the usefulness S n (t + t ′) is increased. This attribute information update process is the same as the process for updating the attribute information of the sensor information at time t.

この実施の形態1では、指示情報生成部14が、最大の有用度S(t)になるときの属性情報を特定し、センサ機器1−nから、その特定した属性情報を有するセンサ情報を受信することができるように、センサ情報の属性情報を更新する例を説明している。
また、この実施の形態1では、指示情報生成部14が、ID=6の属性情報である映像圧縮ストリームのビットレートをBRからBRに更新している例を示している。
ここでは、属性情報の他の更新例として、ID=13の属性情報であるx,y,z軸方向のカメラの回転角度を更新する例を説明する。
In the first embodiment, the instruction information generation unit 14 specifies attribute information when the maximum usefulness S n (t) is reached, and sensor information having the specified attribute information is obtained from the sensor device 1-n. An example in which attribute information of sensor information is updated so that it can be received is described.
In the first embodiment, the instruction information generation unit 14 updates the bit rate of the video compression stream, which is the attribute information with ID = 6, from BR 1 to BR 2 .
Here, as another update example of the attribute information, an example of updating the rotation angle of the camera in the x, y, and z axis directions, which is the attribute information of ID = 13, will be described.

図10はサーバ装置2とセンサ機器1−1〜1−4とを備えたネットワークシステムが監視対象エリアA,Bを監視している様子を示す説明図である。
図10では、センサ機器1−1〜1−4がカメラである例を示している。
また、センサ機器1−1,1−2は監視対象エリアAを撮影し、センサ機器1−3,1−4は監視対象エリアBを撮影している。
図10では、監視対象エリアAに存在している人の数が多く、監視対象エリアBに存在している人の数が少ない例を示している。
FIG. 10 is an explanatory diagram showing a state in which the network system including the server device 2 and the sensor devices 1-1 to 1-4 is monitoring the monitoring target areas A and B.
FIG. 10 illustrates an example in which the sensor devices 1-1 to 1-4 are cameras.
Further, the sensor devices 1-1 and 1-2 photograph the monitoring target area A, and the sensor devices 1-3 and 1-4 photograph the monitoring target area B.
FIG. 10 shows an example in which the number of people existing in the monitoring target area A is large and the number of people existing in the monitoring target area B is small.

有用度算出部13は、センサ機器1−n(n=1,2,3,4)から送信されたセンサ情報の有用度S(t)(n=1,2,3,4)を算出する。
指示情報生成部14は、センサ情報の有用度S(t)(n=1,2,3,4)を算出すると、有用度S(t)が高まるように、センサ機器1−nから送信されたセンサ情報の属性情報を更新する。
以下、指示情報生成部14による属性情報の更新処理を具体的に説明する。
The usefulness calculator 13 calculates the usefulness S n (t) (n = 1, 2, 3, 4) of the sensor information transmitted from the sensor device 1-n (n = 1, 2, 3, 4). To do.
When the instruction information generating unit 14 calculates the usefulness S n (t) (n = 1, 2, 3, 4) of the sensor information, the instruction information generating unit 14 increases the usefulness S n (t) from the sensor device 1-n. The attribute information of the transmitted sensor information is updated.
The attribute information update process by the instruction information generation unit 14 will be specifically described below.

指示情報生成部14は、式(1)に示す有用度S(t)を繰り返し算出するコンピュータシミュレーションを実施する前に、監視対象エリアA,Bの外側領域に存在している人の分布状況を予測する。
即ち、指示情報生成部14は、センサ機器1−1,1−2により撮影された監視対象エリアAの映像から、監視対象エリアAの外側領域に存在している人の分布状況を予測する。
また、指示情報生成部14は、センサ機器1−3,1−4により撮影された監視対象エリアBの映像から、監視対象エリアBの外側領域に存在している人の分布状況を予測する。
監視対象エリアAの外側領域は、例えば、センサ機器1−1,1−2の回転角度を変更したときに映る領域が考えられる。
また、監視対象エリアBの外側領域は、例えば、センサ機器1−3,1−4の回転角度を変更したときに映る領域が考えられる。
ここでは、説明の便宜上、センサ機器1−3の回転角度を時計回り方向に変更したときに映る領域が、監視対象エリアAとなるものとする。
The instruction information generation unit 14 determines the distribution status of the people existing in the outer areas of the monitoring target areas A and B before performing the computer simulation for repeatedly calculating the usefulness S n (t) shown in Expression (1). Predict.
That is, the instruction information generation unit 14 predicts the distribution status of people existing in the outer area of the monitoring target area A from the video of the monitoring target area A photographed by the sensor devices 1-1 and 1-2.
In addition, the instruction information generation unit 14 predicts the distribution situation of people existing in the outer area of the monitoring target area B from the video of the monitoring target area B photographed by the sensor devices 1-3 and 1-4.
For example, the outer area of the monitoring target area A may be an area that appears when the rotation angles of the sensor devices 1-1 and 1-2 are changed.
Further, the outer area of the monitoring target area B may be an area that appears when the rotation angle of the sensor devices 1-3 and 1-4 is changed, for example.
Here, for convenience of explanation, it is assumed that an area that appears when the rotation angle of the sensor device 1-3 is changed in the clockwise direction is the monitoring target area A.

指示情報生成部14が、監視対象エリアA,Bの外側領域に存在している人の分布状況を予測する処理自体は公知の技術であるため詳細な説明を省略する。例えば、以下の非特許文献1に開示されている人の移動を予測する技術を用いれば、時刻tまでに監視対象エリアA,Bで観測された(撮影された)人の移動履歴から、監視対象エリアA,Bの外側領域に存在している人の分布状況を予測することができる。
[非特許文献1]
「Extended floor field CA model for evacuation dynamics 」
IEICE TRANS. INF. & SYST., Vol. E87-D (2004)
Since the process itself in which the instruction information generation unit 14 predicts the distribution status of the people existing in the areas outside the monitoring target areas A and B is a known technique, detailed description thereof is omitted. For example, if the technique for predicting the movement of a person disclosed in Non-Patent Document 1 below is used, monitoring is performed from the movement history of persons observed (photographed) in the monitoring target areas A and B by time t. It is possible to predict the distribution situation of people existing in the outer areas of the target areas A and B.
[Non-Patent Document 1]
"Extended floor field CA model for evacuation dynamics"
IEICE TRANS. INF. & SYST., Vol. E87-D (2004)

指示情報生成部14は、監視対象エリアAの外側領域に存在している人の分布状況を予測すると、監視対象エリアAの外側領域におけるセンサ機器1−n(n=1,2)のセンサ情報として、その予測した人の分布状況を設定する。
指示情報生成部14は、監視対象エリアBの外側領域に存在している人の分布状況を予測すると、監視対象エリアBの外側領域におけるセンサ機器1−n(n=3,4)のセンサ情報として、その予測した人の分布状況を設定する。
When the instruction information generation unit 14 predicts the distribution state of the people existing in the outer area of the monitoring target area A, the sensor information of the sensor device 1-n (n = 1, 2) in the outer area of the monitoring target area A is obtained. As such, the predicted distribution of people is set.
When the instruction information generation unit 14 predicts the distribution situation of the people existing in the outer area of the monitoring target area B, the sensor information of the sensor device 1-n (n = 3, 4) in the outer area of the monitoring target area B. As such, the predicted distribution of people is set.

指示情報生成部14は、監視対象エリアAにおけるセンサ機器1−n(n=1,2)のセンサ情報の属性情報を調整しながら、そのセンサ情報の有用度S(t)(n=1,2)を繰り返し算出するコンピュータシミュレーションを実施する。
指示情報生成部14は、監視対象エリアBにおけるセンサ機器1−n(n=3,4)のセンサ情報の属性情報を調整しながら、そのセンサ情報の有用度S(t)(n=3,4)を繰り返し算出するコンピュータシミュレーションを実施する。
The instruction information generation unit 14 adjusts the attribute information of the sensor information of the sensor device 1-n (n = 1, 2) in the monitoring target area A while adjusting the usefulness S n (t) (n = 1) of the sensor information. , 2) is repeatedly performed.
The instruction information generation unit 14 adjusts the attribute information of the sensor information of the sensor device 1-n (n = 3, 4) in the monitoring target area B, and uses the usefulness S n (t) (n = 3) of the sensor information. , 4) is repeatedly performed.

また、指示情報生成部14は、監視対象エリアAの外側領域におけるセンサ機器1−n(n=1,2)のセンサ情報の属性情報を調整しながら、そのセンサ情報の有用度S(t)(n=1,2)を繰り返し算出するコンピュータシミュレーションを実施する。
指示情報生成部14は、監視対象エリアBの外側領域におけるセンサ機器1−n(n=3,4)のセンサ情報の属性情報を調整しながら、そのセンサ情報の有用度S(t)(n=3,4)を繰り返し算出するコンピュータシミュレーションを実施する。
In addition, the instruction information generation unit 14 adjusts the attribute information of the sensor information of the sensor device 1-n (n = 1, 2) in the outer region of the monitoring target area A while adjusting the usefulness S n (t ) (N = 1, 2) is repeatedly calculated.
The instruction information generation unit 14 adjusts the attribute information of the sensor information of the sensor device 1-n (n = 3, 4) in the outer region of the monitoring target area B, and the usefulness S n (t) of the sensor information ( A computer simulation for repeatedly calculating n = 3, 4) is performed.

指示情報生成部14は、センサ機器1−n(n=1,2,3,4)毎に、コンピュータシミュレーションによって算出した全ての有用度S(t)を比較して、最大の有用度S(t)を特定し、最大の有用度S(t)になるときの属性情報を特定する。
例えば、有用度S(t)の算出に用いている属性情報が、カメラの回転角度とフレームレートである場合、指示情報生成部14は、最大の有用度S(t)になるときのカメラの回転角度とフレームレートを特定する。
The instruction information generation unit 14 compares all the usefulness levels S n (t) calculated by computer simulation for each sensor device 1-n (n = 1, 2, 3, 4) to obtain the maximum usefulness level S. n (t) is specified, and attribute information when the maximum usefulness S n (t) is reached is specified.
For example, when the attribute information used for calculation of the usefulness S n (t) is the rotation angle and the frame rate of the camera, the instruction information generation unit 14 has the maximum usefulness S n (t). Identify the camera rotation angle and frame rate.

指示情報生成部14は、最大の有用度S(t)になるときの属性情報を特定すると、次回、センサ機器1−n(n=1,2,3,4)から、その特定した属性情報を有するセンサ情報を受信することができるように、センサ情報の属性情報を特定した属性情報に更新する。
図11はサーバ装置2とセンサ機器1−1〜1−4とを備えたネットワークシステムが監視対象エリアA,Bを監視している様子を示す説明図である。
図11では、センサ機器1−3のセンサ情報の属性情報であるカメラの回転角度が更新されることで、センサ機器1−3の監視対象エリアが監視対象エリアBから監視対象エリアAに切り換えられている。
例えば、人が多い監視対象エリアを撮影しているカメラほど、当該カメラのセンサ情報の有用度S(t)が高くなる関数f(dn,k(t))が、式(1)に含まれている場合には、図11に示すように、センサ機器1−3の監視対象エリアが監視対象エリアBから監視対象エリアAに切り換えられることが想定される。
When the instruction information generating unit 14 specifies the attribute information when the maximum usefulness S n (t) is specified, the specified attribute is next time detected from the sensor device 1-n (n = 1, 2, 3, 4). The sensor information attribute information is updated to the specified attribute information so that the sensor information having the information can be received.
FIG. 11 is an explanatory diagram showing a state in which the network system including the server device 2 and the sensor devices 1-1 to 1-4 is monitoring the monitoring target areas A and B.
In FIG. 11, the monitoring target area of the sensor device 1-3 is switched from the monitoring target area B to the monitoring target area A by updating the rotation angle of the camera, which is attribute information of the sensor information of the sensor device 1-3. ing.
For example, the function f k (d n, k (t)) that increases the usefulness S n (t) of the sensor information of the camera for a camera that captures a monitoring target area with more people is expressed by the following equation (1). 11, it is assumed that the monitoring target area of the sensor device 1-3 is switched from the monitoring target area B to the monitoring target area A as shown in FIG.

この実施の形態1では、センサ機器1−1〜1−Nがカメラである例を示したが、センサ機器1−1〜1−Nがカメラであるものに限るものではない。
センサ機器1−1〜1−Nとして、例えば、赤外センサ、距離センサ、レーザセンサ、マイクなどが考えられる。
In the first embodiment, an example is shown in which the sensor devices 1-1 to 1-N are cameras. However, the sensor devices 1-1 to 1-N are not limited to cameras.
As the sensor devices 1-1 to 1-N, for example, an infrared sensor, a distance sensor, a laser sensor, a microphone, and the like are conceivable.

実施の形態2.
上記実施の形態1では、サーバ装置2が指示情報をセンサ機器1−1〜1−Nに送信し、センサ機器1−1〜1−Nが、サーバ装置2から送信された指示情報が示す属性情報を有するセンサ情報をサーバ装置2に送信する例を説明している。
この実施の形態2では、サーバ装置2が指示情報をセンサ機器1−1〜1−Nに送信せずに、センサ機器1−1〜1−Nがセンサ情報の有用度を算出して、センサ情報の属性情報を更新し、更新後の属性情報を有するセンサ情報をサーバ装置2に送信する例を説明する。
Embodiment 2. FIG.
In the first embodiment, the server device 2 transmits the instruction information to the sensor devices 1-1 to 1-N, and the sensor devices 1-1 to 1-N indicate the attributes indicated by the instruction information transmitted from the server device 2. The example which transmits the sensor information which has information to the server apparatus 2 is demonstrated.
In the second embodiment, the server device 2 does not transmit the instruction information to the sensor devices 1-1 to 1-N, but the sensor devices 1-1 to 1-N calculate the usefulness of the sensor information, and the sensor device An example in which attribute information of information is updated and sensor information having the updated attribute information is transmitted to the server device 2 will be described.

図12はこの発明の実施の形態2によるネットワークシステムを示す構成図である。
図12のネットワークシステムは、サーバ装置2が指示情報をセンサ機器1−1〜1−Nに送信しないので、図1のネットワークシステムに含まれている指示情報を示す破線の矢印が記述されていない。
また、図12のネットワークシステムは、センサ機器1−1〜1−Nがセンサ情報をサーバ装置2に送信するが、センサ機器1−1〜1−Nがセンサ情報の属性情報をサーバ装置2に送信しない。
この実施の形態2のサーバ装置2は、センサ機器1−1〜1−Nから送信されるセンサ情報を受信することが主な処理であるため、有用度算出部13、指示情報生成部14及び指示情報送信部15などは不要である。
FIG. 12 is a block diagram showing a network system according to Embodiment 2 of the present invention.
In the network system of FIG. 12, since the server apparatus 2 does not transmit instruction information to the sensor devices 1-1 to 1-N, a dashed arrow indicating instruction information included in the network system of FIG. 1 is not described. .
In the network system of FIG. 12, the sensor devices 1-1 to 1-N transmit the sensor information to the server device 2, but the sensor devices 1-1 to 1-N transmit the attribute information of the sensor information to the server device 2. Do not send.
The server device 2 according to the second embodiment mainly receives sensor information transmitted from the sensor devices 1-1 to 1-N. Therefore, the usefulness calculation unit 13, the instruction information generation unit 14, and the like The instruction information transmission unit 15 or the like is not necessary.

図13はこの発明の実施の形態2によるネットワークシステムのセンサ機器1−1〜1−Nを示す構成図である。
図14はこの発明の実施の形態2によるネットワークシステムのセンサ機器1−1〜1−Nのハードウェア構成図である。
図13及び図14において、センサ情報取得部21は例えば図14のセンサ情報取得回路51で実現されるものであり、センサ情報を取得する。
FIG. 13 is a block diagram showing sensor devices 1-1 to 1-N of the network system according to the second embodiment of the present invention.
FIG. 14 is a hardware configuration diagram of sensor devices 1-1 to 1-N of the network system according to the second embodiment of the present invention.
13 and 14, the sensor information acquisition unit 21 is realized by, for example, the sensor information acquisition circuit 51 in FIG. 14 and acquires sensor information.

記憶部22は例えば図14の記憶回路52で実現されるものであり、センサ情報取得部21により取得されたセンサ情報を記憶するとともに、そのセンサ情報の属性情報を記憶する。
有用度算出部23は例えば図14の有用度算出回路53で実現されるものである。
有用度算出部23は記憶部22に記憶されているセンサ情報及び属性情報から、そのセンサ情報の有用度を算出する処理を実施する。
The storage unit 22 is realized by, for example, the storage circuit 52 of FIG. 14, stores the sensor information acquired by the sensor information acquisition unit 21, and stores attribute information of the sensor information.
The usefulness calculator 23 is realized by, for example, the usefulness calculator 53 shown in FIG.
The usefulness calculation unit 23 performs processing for calculating the usefulness of the sensor information from the sensor information and attribute information stored in the storage unit 22.

制御部24は例えば図14の制御回路54で実現されるものである。
制御部24は有用度算出部23により算出された有用度が高まるように、記憶部22に記憶されているセンサ情報の属性情報を更新するとともに、更新後の属性情報を有するセンサ情報を取得するように、センサ情報取得部21を制御する処理を実施する。
センサ情報送信部25は例えば図14のセンサ情報送信回路55で実現されるものであり、制御部24によってセンサ情報取得部21が制御されたのち、センサ情報取得部21により取得されたセンサ情報をサーバ装置2に送信する。
The control unit 24 is realized by, for example, the control circuit 54 of FIG.
The control unit 24 updates the attribute information of the sensor information stored in the storage unit 22 and acquires the sensor information having the updated attribute information so that the usefulness calculated by the usefulness calculation unit 23 increases. Thus, the process which controls the sensor information acquisition part 21 is implemented.
The sensor information transmission unit 25 is realized by, for example, the sensor information transmission circuit 55 in FIG. 14. After the sensor information acquisition unit 21 is controlled by the control unit 24, the sensor information acquired by the sensor information acquisition unit 21 is obtained. It transmits to the server device 2.

図13では、センサ機器1−1〜1−Nの構成要素であるセンサ情報取得部21、記憶部22、有用度算出部23、制御部24及びセンサ情報送信部25のそれぞれが、図14に示すような専用のハードウェア、即ち、センサ情報取得回路51、記憶回路52、有用度算出回路53、制御回路54及びセンサ情報送信部25で実現されるものを想定している。
ここで、記憶回路52は、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROMなどの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
また、センサ情報取得回路51、有用度算出回路53、制御回路54及びセンサ情報送信部25は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
In FIG. 13, the sensor information acquisition unit 21, the storage unit 22, the usefulness calculation unit 23, the control unit 24, and the sensor information transmission unit 25, which are components of the sensor devices 1-1 to 1-N, are illustrated in FIG. It is assumed that dedicated hardware as shown in the drawing, that is, a sensor information acquisition circuit 51, a storage circuit 52, a usefulness calculation circuit 53, a control circuit 54, and a sensor information transmission unit 25 is realized.
Here, the storage circuit 52 corresponds to, for example, a nonvolatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, or EEPROM, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD, or the like. To do.
The sensor information acquisition circuit 51, the usefulness calculation circuit 53, the control circuit 54, and the sensor information transmission unit 25 are, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or This is a combination of these.

センサ機器1−1〜1−Nの構成要素は、専用のハードウェアで実現されるものに限るものではなく、センサ機器1−1〜1−N2がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSPなどが該当する。
The components of the sensor devices 1-1 to 1-N are not limited to those realized by dedicated hardware, and the sensor devices 1-1 to 1-N2 may be software, firmware, or software and firmware. It may be realized in combination.
Software and firmware are stored as programs in the memory of the computer. The computer means hardware that executes a program, and corresponds to, for example, a CPU, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, and a DSP.

図15はセンサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
センサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される場合、記憶部22をコンピュータのメモリ61上に構成するとともに、センサ情報取得部21、有用度算出部23、制御部24及びセンサ情報送信部25の処理手順をコンピュータに実行させるためのプログラムをメモリ61に格納し、コンピュータのプロセッサ62がメモリ61に格納されているプログラムを実行するようにすればよい。
図16はセンサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される場合の処理手順を示すフローチャートである。
FIG. 15 is a hardware configuration diagram of a computer when the sensor devices 1-1 to 1-N are realized by software, firmware, or the like.
When the sensor devices 1-1 to 1-N are realized by software, firmware, or the like, the storage unit 22 is configured on the memory 61 of the computer, the sensor information acquisition unit 21, the usefulness calculation unit 23, the control unit 24, and A program for causing the computer to execute the processing procedure of the sensor information transmission unit 25 may be stored in the memory 61, and the processor 62 of the computer may execute the program stored in the memory 61.
FIG. 16 is a flowchart showing a processing procedure when the sensor devices 1-1 to 1-N are realized by software, firmware, or the like.

また、図14ではセンサ機器1−1〜1−Nの構成要素のそれぞれが専用のハードウェアで実現される例を示し、図15では、センサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される例を示しているが、センサ機器1−1〜1−Nにおける一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。   FIG. 14 shows an example in which each component of the sensor devices 1-1 to 1-N is realized by dedicated hardware. In FIG. 15, the sensor devices 1-1 to 1-N include software, firmware, and the like. However, some components in the sensor devices 1-1 to 1-N are realized by dedicated hardware, and the remaining components are realized by software, firmware, or the like. There may be.

次に動作について説明する。
センサ機器1−n(n=1,2,・・・,N)のセンサ情報取得部21は、センサ情報を取得し、そのセンサ情報を記憶部22に格納する(図16のステップST41)。
センサ機器1−nの有用度算出部23は、記憶部22に格納されているセンサ機器1−nのセンサ情報及び属性情報から、そのセンサ情報の有用度S(t)を算出する(図16のステップST42)。
有用度算出部23による有用度S(t)の算出処理は、上記実施の形態1におけるサーバ装置2の有用度算出部13の算出処理と同様である。
Next, the operation will be described.
The sensor information acquisition unit 21 of the sensor device 1-n (n = 1, 2,..., N) acquires sensor information and stores the sensor information in the storage unit 22 (step ST41 in FIG. 16).
The usefulness calculator 23 of the sensor device 1-n calculates the usefulness S n (t) of the sensor information from the sensor information and attribute information of the sensor device 1-n stored in the storage unit 22 (FIG. 16 step ST42).
The calculation process of the usefulness level S n (t) by the usefulness level calculation unit 23 is the same as the calculation process of the usefulness level calculation unit 13 of the server device 2 in the first embodiment.

センサ機器1−nの制御部24は、有用度算出部23がセンサ情報の有用度S(t)を算出すると、その有用度S(t)が高まるように、記憶部22に記憶されているセンサ情報の属性情報を更新する(図16のステップST43)。
制御部24による属性情報の更新処理は、上記実施の形態1におけるサーバ装置2の指示情報生成部14の更新処理と同様である。
また、制御部24は、更新後の属性情報を有するセンサ情報を取得するようにセンサ情報取得部21を制御する(図16のステップST44)。
When the usefulness calculating unit 23 calculates the usefulness S n (t) of the sensor information, the control unit 24 of the sensor device 1-n is stored in the storage unit 22 so that the usefulness S n (t) is increased. The attribute information of the sensor information is updated (step ST43 in FIG. 16).
The update process of attribute information by the control unit 24 is the same as the update process of the instruction information generation unit 14 of the server device 2 in the first embodiment.
Moreover, the control part 24 controls the sensor information acquisition part 21 so that the sensor information which has the attribute information after an update may be acquired (step ST44 of FIG. 16).

センサ機器1−nのセンサ情報送信部25は、制御部24がセンサ情報取得部21を制御したのち、センサ情報取得部21がセンサ情報を取得すると(図16のステップST45)、ネットワーク3を介して、そのセンサ情報をサーバ装置2に送信する(図16のステップST46)。
サーバ装置2は、センサ機器1−1〜1−Nから送信されたセンサ情報を受信する。
When the sensor information acquisition unit 21 acquires sensor information after the control unit 24 controls the sensor information acquisition unit 21 (step ST45 in FIG. 16), the sensor information transmission unit 25 of the sensor device 1-n transmits the network 3 via the network 3. Then, the sensor information is transmitted to the server device 2 (step ST46 in FIG. 16).
The server device 2 receives the sensor information transmitted from the sensor devices 1-1 to 1-N.

以上で明らかなように、この実施の形態2によれば、センサ情報を取得するセンサ情報取得部21と、センサ情報取得部21により取得されたセンサ情報及びセンサ情報の属性情報から、センサ情報の有用度を算出する有用度算出部23と、有用度算出部23により算出された有用度が高まるように、センサ情報の属性情報を更新し、更新後の属性情報を有するセンサ情報を取得するように、センサ情報取得部21を制御する制御部24とを設け、センサ情報送信部25が、制御部24によってセンサ情報取得部21が制御されたのち、センサ情報取得部21により取得されたセンサ情報を送信するように構成したので、サーバ装置2が受信するセンサ情報の有用度を高めることができる効果を奏する。   As apparent from the above, according to the second embodiment, the sensor information acquisition unit 21 that acquires the sensor information, the sensor information acquired by the sensor information acquisition unit 21, and the attribute information of the sensor information, The usefulness calculating unit 23 that calculates the usefulness, and the attribute information of the sensor information is updated so that the usefulness calculated by the usefulness calculating unit 23 is increased, and the sensor information having the updated attribute information is acquired. Is provided with a control unit 24 for controlling the sensor information acquisition unit 21. The sensor information transmission unit 25 controls the sensor information acquisition unit 21 after the sensor information acquisition unit 21 is controlled by the control unit 24. Therefore, the usefulness of the sensor information received by the server device 2 can be increased.

実施の形態3.
上記実施の形態1では、センサ機器1−1〜1−Nのそれぞれが、サーバ装置2と情報の送受信を実施するものを説明している。
この実施の形態3では、センサ機器1−1〜1−Nのうち、代表のセンサ機器1だけが、サーバ装置2と情報の送受信を実施する例を説明する。
Embodiment 3 FIG.
In the first embodiment described above, each of the sensor devices 1-1 to 1-N performs transmission and reception of information with the server device 2.
In the third embodiment, an example in which only the representative sensor device 1 among the sensor devices 1-1 to 1-N performs transmission and reception of information with the server device 2 will be described.

図17はこの発明の実施の形態3によるネットワークシステムを示す構成図である。
図17では、ネットワークシステムが3台のセンサ機器1−1〜1−3を備えている例を示しているが、ネットワークシステムが備えるセンサ機器1の台数は何台でもよい。
図17の例では、3台のセンサ機器1−1〜1−3のうち、センサ機器1−1を代表のセンサ機器としている。
また、代表のセンサ機器であるセンサ機器1−1は、センサ機器1−2,1−3と通信可能としており、センサ情報、属性情報及び指示情報を他のセンサ機器1−2,1−3と送受信している。
FIG. 17 is a block diagram showing a network system according to Embodiment 3 of the present invention.
Although FIG. 17 shows an example in which the network system includes three sensor devices 1-1 to 1-3, the number of sensor devices 1 included in the network system may be any number.
In the example of FIG. 17, among the three sensor devices 1-1 to 1-3, the sensor device 1-1 is a representative sensor device.
The sensor device 1-1, which is a representative sensor device, can communicate with the sensor devices 1-2 and 1-3, and transmits sensor information, attribute information, and instruction information to the other sensor devices 1-2 and 1-3. Is sending and receiving.

次に動作について説明する。
センサ機器1−2,1−3は、センサ情報を取得すると、そのセンサ情報及び当該センサ情報の属性情報を代表のセンサ機器であるセンサ機器1−1に送信する。
代表のセンサ機器であるセンサ機器1−1は、センサ情報を取得すると、そのセンサ情報及び当該センサ情報の属性情報をサーバ装置2に送信するとともに、センサ機器1−2,1−3から送信されたセンサ情報及び属性情報をサーバ装置2に送信する。
Next, the operation will be described.
Upon acquiring the sensor information, the sensor devices 1-2 and 1-3 transmit the sensor information and attribute information of the sensor information to the sensor device 1-1 that is a representative sensor device.
When the sensor device 1-1, which is a representative sensor device, acquires the sensor information, the sensor device 1-1 and the attribute information of the sensor information are transmitted to the server device 2 and transmitted from the sensor devices 1-2 and 1-3. The transmitted sensor information and attribute information are transmitted to the server device 2.

サーバ装置2は、代表のセンサ機器であるセンサ機器1−1から送信されたセンサ情報及び属性情報、即ち、センサ機器1−1〜1−3により取得されたセンサ情報と、当該センサ情報の属性情報とを受信すると、上記実施の形態1と同様に指示情報を生成する。
即ち、サーバ装置2は、センサ機器1−1〜1−3により取得されたセンサ情報の属性情報をそれぞれ更新して、更新後の属性情報を示す指示情報をそれぞれ生成する。
サーバ装置2は、センサ機器1−1〜1−3宛の指示情報を代表のセンサ機器であるセンサ機器1−1に送信する。
ここで、更新前の属性情報の内容と、更新後の属性情報の内容とが異なるために、センサ機器1−1〜1−3が、センサ情報の属性情報を変更する制御を行う必要である場合、サーバ装置2が、上記実施の形態1と同様に、制御情報を指示情報に含める。
The server device 2 includes sensor information and attribute information transmitted from the sensor device 1-1, which is a representative sensor device, that is, sensor information acquired by the sensor devices 1-1 to 1-3, and attributes of the sensor information. When the information is received, the instruction information is generated as in the first embodiment.
That is, the server device 2 updates the attribute information of the sensor information acquired by the sensor devices 1-1 to 1-3, respectively, and generates instruction information indicating the updated attribute information.
The server device 2 transmits instruction information addressed to the sensor devices 1-1 to 1-3 to the sensor device 1-1 that is a representative sensor device.
Here, since the content of the attribute information before the update is different from the content of the attribute information after the update, it is necessary for the sensor devices 1-1 to 1-3 to perform control to change the attribute information of the sensor information. In this case, the server device 2 includes the control information in the instruction information as in the first embodiment.

代表のセンサ機器であるセンサ機器1−1は、センサ機器1−2宛の指示情報をセンサ機器1−2に送信し、センサ機器1−3宛の指示情報をセンサ機器1−3に送信する。
代表のセンサ機器であるセンサ機器1−1は、センサ機器1−1宛の指示情報に制御情報が含まれている場合、上記実施の形態1と同様に、その制御情報に従って指示情報に含まれているIDに対応する属性情報を変更する。
センサ機器1−2は、センサ機器1−1から送信されたセンサ機器1−2宛の指示情報に制御情報が含まれている場合、その制御情報に従って指示情報に含まれているIDに対応する属性情報を変更する。
センサ機器1−3は、センサ機器1−1から送信されたセンサ機器1−3宛の指示情報に制御情報が含まれている場合、その制御情報に従って指示情報に含まれているIDに対応する属性情報を変更する。
The sensor device 1-1, which is a representative sensor device, transmits instruction information addressed to the sensor device 1-2 to the sensor device 1-2, and transmits instruction information addressed to the sensor device 1-3 to the sensor device 1-3. .
When the control information is included in the instruction information addressed to the sensor device 1-1, the sensor device 1-1 that is a representative sensor device is included in the instruction information according to the control information as in the first embodiment. Change the attribute information corresponding to the ID.
When the control information is included in the instruction information addressed to the sensor apparatus 1-2 transmitted from the sensor apparatus 1-1, the sensor apparatus 1-2 corresponds to the ID included in the instruction information according to the control information. Change attribute information.
When the control information is included in the instruction information addressed to the sensor apparatus 1-3 transmitted from the sensor apparatus 1-1, the sensor apparatus 1-3 corresponds to the ID included in the instruction information according to the control information. Change attribute information.

この実施の形態3では、サーバ装置2が、センサ機器1−1〜1−3宛の制御情報を指示情報に含めている例を説明しているが、これに限るものではない。
例えば、サーバ装置2は、代表のセンサ機器であるセンサ機器1−1宛の制御情報を指示情報に含めるとともに、センサ機器1−1宛の制御情報と、センサ機器1−2,1−3宛の制御情報との差分情報を指示情報に含めるようにしてもよい。
この場合、代表のセンサ機器であるセンサ機器1−1は、センサ機器1−1宛の制御情報と、センサ機器1−2宛の制御情報との差分情報をセンサ機器1−1宛の制御情報に加算する。
そして、センサ機器1−1は、差分情報をセンサ機器1−1宛の制御情報に加算した情報を、センサ機器1−2宛の制御情報としてセンサ機器1−2に送信する。
また、代表のセンサ機器であるセンサ機器1−1は、センサ機器1−1宛の制御情報と、センサ機器1−3宛の制御情報との差分情報をセンサ機器1−1宛の制御情報に加算する。
そして、センサ機器1−1は、差分情報をセンサ機器1−1宛の制御情報に加算した情報を、センサ機器1−3宛の制御情報としてセンサ機器1−3に送信する。
In the third embodiment, an example is described in which the server device 2 includes control information addressed to the sensor devices 1-1 to 1-3 in the instruction information. However, the present invention is not limited to this.
For example, the server device 2 includes the control information addressed to the sensor device 1-1, which is a representative sensor device, in the instruction information, the control information addressed to the sensor device 1-1, and the address addressed to the sensor devices 1-2 and 1-3. Difference information from the control information may be included in the instruction information.
In this case, the sensor device 1-1 which is a representative sensor device uses the difference information between the control information addressed to the sensor device 1-1 and the control information addressed to the sensor device 1-2 as control information addressed to the sensor device 1-1. Add to.
The sensor device 1-1 transmits information obtained by adding the difference information to the control information addressed to the sensor device 1-1 to the sensor device 1-2 as control information addressed to the sensor device 1-2.
The sensor device 1-1, which is a representative sensor device, uses the difference information between the control information addressed to the sensor device 1-1 and the control information addressed to the sensor device 1-3 as control information addressed to the sensor device 1-1. to add.
Then, the sensor device 1-1 transmits information obtained by adding the difference information to the control information addressed to the sensor device 1-1 to the sensor device 1-3 as control information addressed to the sensor device 1-3.

ここで、差分情報としては、以下のような例が挙げられる。
例えば、センサ機器1−1宛の制御情報が、映像のフレームレートをFに変更する旨を指示する制御情報であり、センサ機器1−2宛の制御情報が、映像のフレームレートをFに変更する旨を指示する制御情報である場合、2つのフレームレートの差分がF−Fになる。このため、差分情報は、F−Fのようになる。
Here, examples of the difference information include the following.
For example, control information addressed to the sensor device 1-1, a control information instructing to change the frame rate of the video to F 1, the control information addressed to the sensor device 1-2, the frame rate of video F 2 In the case of the control information instructing to change to, the difference between the two frame rates is F 2 −F 1 . Therefore, the difference information is as F 2 -F 1.

この実施の形態3によれば、センサ機器1−1〜1−Nのうち、代表のセンサ機器1だけが、サーバ装置2と情報の送受信を実施するので、センサ機器1−1〜1−Nのそれぞれが、サーバ装置2と情報の送受信を実施する場合よりも、ネットワーク3における通信の輻輳を抑制することができる。   According to the third embodiment, among the sensor devices 1-1 to 1-N, only the representative sensor device 1 performs transmission / reception of information with the server device 2, and thus the sensor devices 1-1 to 1-N. The communication congestion in the network 3 can be suppressed as compared with the case where each of them transmits / receives information to / from the server device 2.

この実施の形態3では、代表のセンサ機器がセンサ機器1−1である例を示したが、代表のセンサ機器が複数あってもよい。
図18はこの発明の実施の形態3によるネットワークシステムを示す構成図である。
図18では、ネットワークシステムが6台のセンサ機器1−1〜1−6を備えている例を示しているが、ネットワークシステムが備えるセンサ機器1の台数は2台以上であれば何台でもよい。
図18では、センサ機器1−1〜1−3の中の代表のセンサ機器がセンサ機器1−3であり、センサ機器1−4〜1−6の中の代表のセンサ機器がセンサ機器1−4である。
また、図18では、代表のセンサ機器であるセンサ機器1−3は、センサ機器1−1,1−2と通信可能としており、センサ情報、属性情報及び指示情報を他のセンサ機器1−1,1−2と送受信している。
代表のセンサ機器であるセンサ機器1−4は、センサ機器1−5,1−6と通信可能としており、センサ情報、属性情報及び指示情報を他のセンサ機器1−5,1−6と送受信している。
In the third embodiment, an example in which the representative sensor device is the sensor device 1-1 has been described. However, there may be a plurality of representative sensor devices.
FIG. 18 is a block diagram showing a network system according to Embodiment 3 of the present invention.
FIG. 18 shows an example in which the network system includes six sensor devices 1-1 to 1-6. However, the number of sensor devices 1 included in the network system may be any number as long as the number is two or more. .
In FIG. 18, the representative sensor device among the sensor devices 1-1 to 1-3 is the sensor device 1-3, and the representative sensor device among the sensor devices 1-4 to 1-6 is the sensor device 1-. 4.
In FIG. 18, the sensor device 1-3, which is a representative sensor device, can communicate with the sensor devices 1-1 and 1-2, and the sensor information, attribute information, and instruction information are transmitted to the other sensor devices 1-1. , 1-2.
The sensor device 1-4, which is a representative sensor device, can communicate with the sensor devices 1-5 and 1-6, and transmits and receives sensor information, attribute information, and instruction information to and from the other sensor devices 1-5 and 1-6. doing.

実施の形態4.
上記実施の形態1〜3では、サーバ装置2が1台である例を示したが、この実施の形態4では、ネットワークシステムが複数台のサーバ装置2と、複数台のサーバ装置2を統括する統括サーバとを備える例を説明する。
Embodiment 4 FIG.
In the first to third embodiments, an example in which there is one server device 2 has been described. However, in this fourth embodiment, the network system controls a plurality of server devices 2 and a plurality of server devices 2. An example provided with a central server will be described.

図19はこの発明の実施の形態4によるネットワークシステムを示す構成図である。
図19では、ネットワークシステムが6台のセンサ機器1−1〜1−6を備えている例を示しているが、ネットワークシステムが備えるセンサ機器1の台数は2台以上であれば何台でもよい。
図19では、ネットワークシステムが2台のサーバ装置2−1,2−2を備えている例を示しているが、ネットワークシステムが備えるサーバ装置2の台数は2台以上であれば何台でもよい。
図19では、ネットワークシステムが2台のサーバ装置2を統括する統括サーバ70を備えている。
FIG. 19 is a block diagram showing a network system according to Embodiment 4 of the present invention.
FIG. 19 shows an example in which the network system includes six sensor devices 1-1 to 1-6. However, the number of sensor devices 1 included in the network system may be any number as long as the number is two or more. .
FIG. 19 shows an example in which the network system includes two server apparatuses 2-1 and 2-2. However, the number of server apparatuses 2 included in the network system may be any number as long as the number is two or more. .
In FIG. 19, the network system includes a central server 70 that controls two server apparatuses 2.

サーバ装置2−1は、3台のセンサ機器1−1〜1−3と情報の送受信を実施し、サーバ装置2−2は、3台のセンサ機器1−4〜1−6と情報の送受信を実施する。
サーバ装置2−1は、図1のサーバ装置2と異なり、有用度の算出処理、指示情報の生成処理などを実施せずに、センサ機器1−1〜1−3から送信されたセンサ情報及び属性情報を統括サーバ70に転送する。
サーバ装置2−2は、図1のサーバ装置2と異なり、有用度の算出処理、指示情報の生成処理などを実施せずに、センサ機器1−4〜1−6から送信されたセンサ情報及び属性情報を統括サーバ70に転送する。
The server device 2-1 transmits and receives information to and from the three sensor devices 1-1 to 1-3, and the server device 2-2 transmits and receives information to and from the three sensor devices 1-4 to 1-6. To implement.
Unlike the server device 2 in FIG. 1, the server device 2-1 does not perform usefulness calculation processing, instruction information generation processing, and the like, and sensor information transmitted from the sensor devices 1-1 to 1-3. The attribute information is transferred to the central server 70.
Unlike the server device 2 in FIG. 1, the server device 2-2 does not perform usefulness calculation processing, instruction information generation processing, and the like, and sensor information transmitted from the sensor devices 1-4 to 1-6 and The attribute information is transferred to the central server 70.

統括サーバ70は、図1のサーバ装置2と同様の機能として、有用度の算出処理、指示情報の生成処理などを実施する機能を備えている。
統括サーバ70は、サーバ装置2−1,2−2からセンサ情報及び属性情報を受けると、センサ機器1−1〜1−6宛の指示情報を生成し、センサ機器1−1〜1−3宛の指示情報をサーバ装置2−1に送信し、センサ機器1−4〜1−6宛の指示情報をサーバ装置2−2に送信する。
サーバ装置2−1は、統括サーバ70からセンサ機器1−1〜1−3宛の指示情報を受けると、センサ機器1−1〜1−3宛の指示情報をセンサ機器1−1〜1−3に転送する。
サーバ装置2−2は、統括サーバ70からセンサ機器1−4〜1−6宛の指示情報を受けると、センサ機器1−4〜1−6宛の指示情報をセンサ機器1−4〜1−6に転送する。
The central server 70 has functions for performing usefulness calculation processing, instruction information generation processing, and the like as functions similar to the server device 2 of FIG.
When the central server 70 receives the sensor information and the attribute information from the server devices 2-1 and 2-2, the central server 70 generates instruction information addressed to the sensor devices 1-1 to 1-6, and the sensor devices 1-1 to 1-3. The instruction information addressed to the server device 2-1 is transmitted, and the instruction information addressed to the sensor devices 1-4 to 1-6 is transmitted to the server device 2-2.
When the server device 2-1 receives the instruction information addressed to the sensor devices 1-1 to 1-3 from the central server 70, the server device 2-1 receives the instruction information addressed to the sensor devices 1-1 to 1-3. Forward to 3.
When the server device 2-2 receives the instruction information addressed to the sensor devices 1-4 to 1-6 from the central server 70, the server device 2-2 sends the instruction information addressed to the sensor devices 1-4 to 1-6 to the sensor devices 1-4 to 1-. Forward to 6.

この実施の形態4では、統括サーバ70は、図1のサーバ装置2の役割を担い、サーバ装置2−1は、センサ機器1−1〜1−3と統括サーバ70が送受信する情報を転送する役割を担っている。
また、サーバ装置2−2は、センサ機器1−4〜1−6と統括サーバ70が送受信する情報を転送する役割を担っている。
この実施の形態4でも、上記実施の形態1〜3と同様に、センサ機器1から送信を受けるセンサ情報の有用度を高めることができる効果を奏する。
In the fourth embodiment, the central server 70 plays the role of the server device 2 in FIG. 1, and the server device 2-1 transfers information transmitted and received between the sensor devices 1-1 to 1-3 and the central server 70. Have a role.
The server device 2-2 plays a role of transferring information transmitted and received between the sensor devices 1-4 to 1-6 and the central server 70.
In the fourth embodiment, as in the first to third embodiments, the usefulness of sensor information received from the sensor device 1 can be increased.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1−1〜1−N センサ機器、2、2−1,2−2 サーバ装置、3 ネットワーク、10 データ送受信部、11 センサ情報受信部、12 記憶部、13 有用度算出部、14 指示情報生成部、15 指示情報送信部、21 センサ情報取得部、22 記憶部、23 有用度算出部、24 制御部、25 センサ情報送信部、31 センサ情報受信回路、32 記憶回路、33 有用度算出回路、34 指示情報生成回路、35 指示情報送信回路、41 メモリ、42 プロセッサ、51 センサ情報取得回路、52 記憶回路、53 有用度算出回路、54 制御回路、55 センサ情報送信回路、61 メモリ、62 プロセッサ、70 統括サーバ。   1-1 to 1-N sensor device, 2, 2-1, 2-2 server device, 3 network, 10 data transmission / reception unit, 11 sensor information reception unit, 12 storage unit, 13 usefulness calculation unit, 14 instruction information generation 15, instruction information transmission unit, 21 sensor information acquisition unit, 22 storage unit, 23 usefulness calculation unit, 24 control unit, 25 sensor information transmission unit, 31 sensor information reception circuit, 32 storage circuit, 33 usefulness calculation circuit, 34 instruction information generation circuit, 35 instruction information transmission circuit, 41 memory, 42 processor, 51 sensor information acquisition circuit, 52 storage circuit, 53 usefulness calculation circuit, 54 control circuit, 55 sensor information transmission circuit, 61 memory, 62 processor, 70 Central server.

Claims (5)

センサ機器から送信されたセンサ情報及び前記センサ情報の属性情報を受信するセンサ情報受信部と、
前記センサ情報受信部により受信されたセンサ情報及び属性情報から、前記センサ情報の有用度を算出する有用度算出部と、
前記有用度算出部により算出された有用度が高まるように、前記センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部と、
前記指示情報生成部により生成された指示情報を前記センサ機器に送信する指示情報送信部と
を備えたサーバ装置。
A sensor information receiving unit that receives sensor information transmitted from the sensor device and attribute information of the sensor information;
From the sensor information and attribute information received by the sensor information receiving unit, a usefulness calculating unit that calculates the usefulness of the sensor information;
An instruction information generating unit that updates the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculating unit, and generates instruction information indicating the updated attribute information;
A server device comprising: an instruction information transmission unit that transmits instruction information generated by the instruction information generation unit to the sensor device.
センサ情報及び前記センサ情報の属性情報を送信するセンサ機器と、
前記センサ機器から送信されたセンサ情報及び属性情報を受信するサーバ装置とを備え、
前記サーバ装置は、
前記センサ機器から送信されたセンサ情報及び属性情報を受信するセンサ情報受信部と、
前記センサ情報受信部により受信されたセンサ情報及び属性情報から、前記センサ情報の有用度を算出する有用度算出部と、
前記有用度算出部により算出された有用度が高まるように、前記センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部と、
前記指示情報生成部により生成された指示情報を前記センサ機器に送信する指示情報送信部とを備えていることを特徴とするネットワークシステム。
A sensor device that transmits sensor information and attribute information of the sensor information; and
A server device that receives sensor information and attribute information transmitted from the sensor device;
The server device
A sensor information receiving unit for receiving sensor information and attribute information transmitted from the sensor device;
From the sensor information and attribute information received by the sensor information receiving unit, a usefulness calculating unit that calculates the usefulness of the sensor information;
An instruction information generating unit that updates the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculating unit, and generates instruction information indicating the updated attribute information;
A network system, comprising: an instruction information transmission unit that transmits the instruction information generated by the instruction information generation unit to the sensor device.
前記センサ機器は、前記指示情報送信部から送信された指示情報を受信し、前記指示情報が示す更新後の属性情報を有するセンサ情報を前記サーバ装置に送信することを特徴とする請求項2記載のネットワークシステム。   The said sensor apparatus receives the instruction information transmitted from the said instruction information transmission part, and transmits the sensor information which has the attribute information after the update which the said instruction information shows to the said server apparatus. Network system. 前記センサ機器がカメラであり、前記センサ情報が前記カメラにより撮影された映像、前記センサ情報の属性情報が、前記映像の属性情報であることを特徴とする請求項2記載のネットワークシステム。   The network system according to claim 2, wherein the sensor device is a camera, the sensor information is a video captured by the camera, and the attribute information of the sensor information is attribute information of the video. センサ情報を取得するセンサ情報取得部と、
前記センサ情報取得部により取得されたセンサ情報及び前記センサ情報の属性情報から、前記センサ情報の有用度を算出する有用度算出部と、
前記有用度算出部により算出された有用度が高まるように、前記センサ情報の属性情報を更新し、更新後の属性情報を有するセンサ情報を取得するように、前記センサ情報取得部を制御する制御部と、
前記制御部によって前記センサ情報取得部が制御されたのち、前記センサ情報取得部により取得されたセンサ情報を送信するセンサ情報送信部と
を備えたセンサ機器。
A sensor information acquisition unit for acquiring sensor information;
From the sensor information acquired by the sensor information acquisition unit and the attribute information of the sensor information, a usefulness calculation unit that calculates the usefulness of the sensor information;
Control for controlling the sensor information acquisition unit so as to update the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculation unit and to acquire sensor information having the updated attribute information. And
A sensor device comprising: a sensor information transmission unit configured to transmit the sensor information acquired by the sensor information acquisition unit after the sensor information acquisition unit is controlled by the control unit.
JP2016196292A 2016-10-04 2016-10-04 Server device, network system, and sensor device Pending JP2018061110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016196292A JP2018061110A (en) 2016-10-04 2016-10-04 Server device, network system, and sensor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016196292A JP2018061110A (en) 2016-10-04 2016-10-04 Server device, network system, and sensor device

Publications (1)

Publication Number Publication Date
JP2018061110A true JP2018061110A (en) 2018-04-12

Family

ID=61907694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016196292A Pending JP2018061110A (en) 2016-10-04 2016-10-04 Server device, network system, and sensor device

Country Status (1)

Country Link
JP (1) JP2018061110A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018101962A (en) * 2016-12-21 2018-06-28 富士通株式会社 Control device, control method, control program, and control system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279560A (en) * 2001-03-19 2002-09-27 Fujitsu General Ltd Monitoring method using network camera and monitoring system
JP2014143477A (en) * 2013-01-22 2014-08-07 Canon Inc Imaging system
JP2014209311A (en) * 2013-03-26 2014-11-06 日本電気株式会社 Data collection management system, data collection management method, terminal and management device
JP2016170541A (en) * 2015-03-11 2016-09-23 オムロン株式会社 Sensor system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279560A (en) * 2001-03-19 2002-09-27 Fujitsu General Ltd Monitoring method using network camera and monitoring system
JP2014143477A (en) * 2013-01-22 2014-08-07 Canon Inc Imaging system
JP2014209311A (en) * 2013-03-26 2014-11-06 日本電気株式会社 Data collection management system, data collection management method, terminal and management device
JP2016170541A (en) * 2015-03-11 2016-09-23 オムロン株式会社 Sensor system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018101962A (en) * 2016-12-21 2018-06-28 富士通株式会社 Control device, control method, control program, and control system

Similar Documents

Publication Publication Date Title
US8553099B2 (en) Imaging terminal, display terminal, display method, and imaging system
CN110581948A (en) electronic device for providing quality customized image, control method thereof and server
CN111107276B (en) Information processing apparatus, control method thereof, storage medium, and imaging system
KR102386385B1 (en) Electronic device and method for compressing image thereof
JP7222683B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
JP7233162B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
US20170201689A1 (en) Remotely controlled communicated image resolution
JP2020068398A (en) Control apparatus, imaging apparatus, control method, and program
US20210176430A1 (en) Image capturing apparatus using learned model, information processing apparatus, methods of controlling respective apparatuses, learned model selection system, and storage medium
JP2023057157A (en) Image capturing apparatus, method for controlling the same, and program
US20160088219A1 (en) Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium
CN111105039A (en) Information processing apparatus, control method thereof, and memory
JP2021534679A (en) Image acquisition device control method and device
US20210152750A1 (en) Information processing apparatus and method for controlling the same
JP2018061110A (en) Server device, network system, and sensor device
US10491833B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable recording medium
US11843846B2 (en) Information processing apparatus and control method therefor
US9807311B2 (en) Imaging apparatus, video data transmitting apparatus, video data transmitting and receiving system, image processing method, and program
US10949713B2 (en) Image analyzing device with object detection using selectable object model and image analyzing method thereof
JP6702737B2 (en) Image blur correction apparatus and method for controlling image blur correction apparatus
JP2022045567A (en) Imaging control device, imaging control method, and program
JP6576139B2 (en) Imaging device
JP7353864B2 (en) Information processing device, control method and program for information processing device, imaging system
JP2019062267A (en) Imaging apparatus and control method therefor, and program
US20240098358A1 (en) Information processing apparatus and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200303