JP2018061110A - Server device, network system, and sensor device - Google Patents
Server device, network system, and sensor device Download PDFInfo
- Publication number
- JP2018061110A JP2018061110A JP2016196292A JP2016196292A JP2018061110A JP 2018061110 A JP2018061110 A JP 2018061110A JP 2016196292 A JP2016196292 A JP 2016196292A JP 2016196292 A JP2016196292 A JP 2016196292A JP 2018061110 A JP2018061110 A JP 2018061110A
- Authority
- JP
- Japan
- Prior art keywords
- information
- sensor
- usefulness
- unit
- sensor information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、センサ機器から送信されたセンサ情報を受信するサーバ装置と、センサ機器及びサーバ装置を備えているネットワークシステムと、センサ情報を送信するセンサ機器とに関するものである。 The present invention relates to a server device that receives sensor information transmitted from a sensor device, a network system including the sensor device and the server device, and a sensor device that transmits sensor information.
以下の特許文献1には、複数のセンサ機器とサーバ装置が、無線ネットワークなどのネットワークで繋がっているネットワークシステムが開示されている。
このネットワークシステムのセンサ機器は、ネットワークを介して、センサ情報をサーバ装置に送信し、サーバ装置は、センサ機器から送信されたセンサ情報を受信する。
The sensor device of this network system transmits sensor information to the server device via the network, and the server device receives the sensor information transmitted from the sensor device.
従来のネットワークシステムは以上のように構成されているので、センサ機器から送信されたセンサ情報をサーバ装置が受信することができる。しかし、センサ機器から送信されるセンサ情報の属性が固定化されている。例えば、センサ機器から送信されるセンサ情報がカメラの映像であれば、映像のビットレート、解像度、圧縮方式などの属性が固定化されている。このため、センサ機器から送信されるセンサ情報の有用度が低くても、そのセンサ情報の有用度を高めることができず、サーバ装置が、有用度が高いセンサ情報を得られなくなることがあるという課題があった。
ここで、センサ情報の有用度は、センサ情報の活用価値を意味する。例えば、センサ機器が監視カメラであり、映像の解像度などが高ければ、映像が鮮明であるため、人の識別が容易になる。したがって、映像の解像度などが高ければ、監視カメラのセンサ情報の有用度は高いと言える。映像の解像度などが低い場合、映像の鮮明度が低いため、監視カメラのセンサ情報の有用度が低い場合が多いが、例えば、狭いエリアを監視カメラが撮影している状況下では、映像の解像度などが低い場合でも、エリア内の人を容易に識別できることがある。したがって、映像の解像度などが低い場合でも、監視カメラのセンサ情報の有用度が高いと言えることがある。
Since the conventional network system is configured as described above, the server apparatus can receive the sensor information transmitted from the sensor device. However, the attribute of the sensor information transmitted from the sensor device is fixed. For example, if the sensor information transmitted from the sensor device is a camera image, attributes such as the bit rate, resolution, and compression method of the image are fixed. For this reason, even if the usefulness of the sensor information transmitted from the sensor device is low, the usefulness of the sensor information cannot be increased, and the server device may not be able to obtain highly useful sensor information. There was a problem.
Here, the usefulness of the sensor information means the utility value of the sensor information. For example, if the sensor device is a monitoring camera and the resolution of the video is high, the video is clear, so that the person can be easily identified. Therefore, if the video resolution is high, it can be said that the usefulness of the sensor information of the surveillance camera is high. When the resolution of the video is low, the usefulness of the sensor information of the surveillance camera is often low because of the low definition of the video.For example, in the situation where the surveillance camera is shooting a narrow area, the video resolution In some cases, the person in the area can be easily identified even if it is low. Therefore, even when the resolution of the video is low, it can be said that the usefulness of the sensor information of the surveillance camera is high.
この発明は上記のような課題を解決するためになされたもので、センサ情報の有用度を高めることができるサーバ装置、ネットワークシステム及びセンサ機器を得ることを目的とする。 The present invention has been made to solve the above-described problems, and an object thereof is to obtain a server device, a network system, and a sensor device that can increase the usefulness of sensor information.
この発明に係るサーバ装置は、センサ機器から送信されたセンサ情報及びセンサ情報の属性情報を受信するセンサ情報受信部と、センサ情報受信部により受信されたセンサ情報及び属性情報から、センサ情報の有用度を算出する有用度算出部と、有用度算出部により算出された有用度が高まるように、センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部とを設け、指示情報送信部が、指示情報生成部により生成された指示情報をセンサ機器に送信するようにしたものである。 The server device according to the present invention is useful for sensor information from a sensor information receiving unit that receives sensor information and sensor information attribute information transmitted from the sensor device, and sensor information and attribute information received by the sensor information receiving unit. A usefulness calculation unit for calculating the degree, and an instruction information generation unit for updating the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculation unit and generating instruction information indicating the updated attribute information The instruction information transmission unit transmits the instruction information generated by the instruction information generation unit to the sensor device.
この発明によれば、センサ機器から送信されたセンサ情報及びセンサ情報の属性情報を受信するセンサ情報受信部と、センサ情報受信部により受信されたセンサ情報及び属性情報から、センサ情報の有用度を算出する有用度算出部と、有用度算出部により算出された有用度が高まるように、センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部とを設け、指示情報送信部が、指示情報生成部により生成された指示情報をセンサ機器に送信するように構成したので、センサ機器から送信を受けるセンサ情報の有用度を高めることができる効果がある。 According to this invention, the usefulness of the sensor information is determined from the sensor information and the attribute information received by the sensor information receiving unit that receives the sensor information and the sensor information attribute information transmitted from the sensor device. A usefulness calculating unit for calculating, and an instruction information generating unit for updating the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculating unit and generating instruction information indicating the updated attribute information. Since the instruction information transmitting unit is configured to transmit the instruction information generated by the instruction information generating unit to the sensor device, the usefulness of the sensor information received from the sensor device can be increased.
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。 Hereinafter, in order to describe the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.
実施の形態1.
図1はこの発明の実施の形態1によるネットワークシステムを示す構成図である。
図2はこの発明の実施の形態1によるネットワークシステムのサーバ装置2を示す構成図であり、図3はこの発明の実施の形態1によるネットワークシステムのサーバ装置2のハードウェア構成図である。
図1から図3において、センサ機器1−1〜1−Nはサーバ装置2から送信された指示情報を受信し、その指示情報が示す属性情報を有するセンサ情報及び当該センサ情報の属性情報をサーバ装置2に送信する。
サーバ装置2はセンサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報を受信する。
また、サーバ装置2はセンサ機器1−1〜1−Nから送信を受けるセンサ情報の属性情報を示す指示情報を生成し、その指示情報をセンサ機器1−1〜1−Nに送信する。
この実施の形態1では、センサ機器1−1〜1−Nを区別しない場合、センサ機器1のように表記することがある。
サーバ装置2とネットワーク3を介して接続されているセンサ機器1は、何台でもよいが、この実施の形態1では、N台のセンサ機器1−1〜1−Nが接続されている例を説明する。
ネットワーク3はセンサ機器1−1〜1−Nとサーバ装置2を接続している無線又は有線のネットワークである。
1 is a block diagram showing a network system according to
FIG. 2 is a configuration diagram showing the
1 to 3, the sensor devices 1-1 to 1-N receive the instruction information transmitted from the
The
Further, the
In the first embodiment, when the sensor devices 1-1 to 1-N are not distinguished, they may be expressed as the
Any number of
The
サーバ装置2のデータ送受信部10はセンサ情報受信部11と指示情報送信部15を備えている。
センサ情報受信部11は例えば図3のセンサ情報受信回路31で実現されるものである。
センサ情報受信部11はネットワーク3を介してセンサ機器1−1〜1−Nと接続されており、センサ機器1−1〜1−Nから送信されたセンサ情報及びセンサ情報の属性情報を受信する。
The data transmitting / receiving
The sensor
The sensor
記憶部12は例えば図3の記憶回路32で実現されるものであり、センサ情報受信部11により受信されたセンサ情報及びセンサ情報の属性情報を記憶する。
有用度算出部13は例えば図3の有用度算出回路33で実現されるものである。
有用度算出部13は記憶部12に記憶されているセンサ機器1−n(n=1,2,・・・,N)のセンサ情報及びセンサ情報の属性情報から、そのセンサ情報の有用度を算出する処理を実施する。
The
The
The
指示情報生成部14は例えば図3の指示情報生成回路34で実現されるものである。
指示情報生成部14は有用度算出部13により算出されたセンサ情報の有用度が高まるように、センサ機器1−nから送信を受けるセンサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する処理を実施する。
指示情報送信部15は例えば図3の指示情報送信回路35で実現されるものである。
指示情報送信部15は指示情報生成部14により生成された指示情報をセンサ機器1−nに送信する処理を実施する。
なお、センサ機器1−1〜1−Nから送信されたセンサ情報の有用度が互いに異なる場合、指示情報送信部15からセンサ機器1−1〜1−Nに送信される指示情報が示す更新後の属性情報は、互いに異なる属性情報となる。
The instruction
The instruction
The instruction
The instruction
In addition, when the usefulness of the sensor information transmitted from the sensor devices 1-1 to 1-N is different from each other, the updated information indicated by the instruction information transmitted from the instruction
図2では、サーバ装置2の構成要素であるセンサ情報受信部11、記憶部12、有用度算出部13、指示情報生成部14及び指示情報送信部15のそれぞれが、図3に示すような専用のハードウェア、即ち、センサ情報受信回路31、記憶回路32、有用度算出回路33、指示情報生成回路34及び指示情報送信回路35で実現されるものを想定している。
ここで、記憶回路32は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
また、センサ情報受信回路31、有用度算出回路33、指示情報生成回路34及び指示情報送信回路35は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
In FIG. 2, each of the sensor
Here, the
The sensor
サーバ装置2の構成要素は、専用のハードウェアで実現されるものに限るものではなく、サーバ装置2がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
The components of the
Software and firmware are stored as programs in the memory of the computer. The computer means hardware that executes a program, and includes, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a DSP (Digital Signal Processor), and the like. .
図4はサーバ装置2がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
サーバ装置2がソフトウェアやファームウェアなどで実現される場合、記憶部12をコンピュータのメモリ41上に構成するとともに、センサ情報受信部11、有用度算出部13、指示情報生成部14及び指示情報送信部15の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納し、コンピュータのプロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
図5はサーバ装置2がソフトウェアやファームウェアなどで実現される場合の処理手順を示すフローチャートである。
FIG. 4 is a hardware configuration diagram of a computer when the
When the
FIG. 5 is a flowchart showing a processing procedure when the
また、図3ではサーバ装置2の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図4では、サーバ装置2がソフトウェアやファームウェアなどで実現される例を示しているが、サーバ装置2における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
図6はセンサ機器1−1〜1−Nの処理手順を示すフローチャートである。
図7はサーバ装置2とセンサ機器1−1〜1−Nとの間の信号の送受信を示すシーケンス図である。
3 shows an example in which each component of the
FIG. 6 is a flowchart showing a processing procedure of the sensor devices 1-1 to 1-N.
FIG. 7 is a sequence diagram illustrating transmission / reception of signals between the
次に動作について説明する。
この実施の形態1では、センサ機器1−1〜1−Nがカメラであって、センサ情報がカメラにより撮影された映像及び音声、センサ情報の属性情報が映像及び音声の属性情報である例を説明する。
カメラにより撮影された映像としては、例えば、カメラの映像データ、カメラの映像データが圧縮されたストリームデータなどが考えられる。
また、カメラにより撮影された映像の属性情報としては、例えば、以下に示す情報などが考えられる。
Next, the operation will be described.
In the first embodiment, the sensor devices 1-1 to 1-N are cameras, and the sensor information is video and audio captured by the camera, and the sensor information attribute information is video and audio attribute information. explain.
Examples of the video captured by the camera include camera video data, stream data obtained by compressing the camera video data, and the like.
Further, as the attribute information of the video imaged by the camera, for example, the following information can be considered.
(1)カメラ映像の色フォーマット
例えば、RGB、YCbCrなどの色フォーマット
(2)カメラ映像における画素のビット深度
(3)カメラ映像のフレームレート
(4)キャリブレーションに必要なカメラパラメータ
例えば、焦点距離等のカメラパラメータ
(5)カメラ映像の圧縮方式
(6)カメラの映像データを圧縮する際の設定パラメータ
例えば、ビットレート、解像度、フレームレート、画素のビット深度、色フォーマットなどの設定パラメータ
(1) Color format of camera video For example, RGB, YCbCr color format, etc. (2) Bit depth of pixel in camera video (3) Frame rate of camera video (4) Camera parameters required for calibration, eg focal length (5) Camera video compression method (6) Setting parameters when compressing camera video data For example, setting parameters such as bit rate, resolution, frame rate, pixel bit depth, and color format
図8はセンサ情報及び属性情報と識別情報であるID(IDentification)との対応例を示す説明図である。
図8の例では、ID=15の圧縮ストリームがセンサ情報であり、ID=0〜14がセンサ情報の属性情報である。この圧縮ストリームは、映像圧縮ストリームと音声圧縮ストリームを含んでいる。
ID=12におけるカメラの位置情報と、ID=13におけるx,y,z軸方向のカメラの回転角度と、ID=14の焦点距離とは、厳密にはカメラの属性情報であるが、図8の例では、センサ情報の属性情報に含めている。
FIG. 8 is an explanatory diagram showing an example of correspondence between sensor information and attribute information and ID (IDentification) which is identification information.
In the example of FIG. 8, the compressed stream with ID = 15 is sensor information, and ID = 0 to 14 is attribute information of sensor information. This compressed stream includes a video compressed stream and an audio compressed stream.
Strictly speaking, the position information of the camera at ID = 12, the rotation angle of the camera in the x, y, and z-axis directions at ID = 13, and the focal length of ID = 14 are camera attribute information. In the example, it is included in the attribute information of the sensor information.
サーバ装置2の指示情報生成部14は、センサ機器1−1〜1−Nから送信を受けるセンサ情報の属性情報を決定し、その属性情報を示す指示情報を生成する。
指示情報生成部14による指示情報の生成処理についての詳細は後述する。
サーバ装置2の指示情報送信部15は、指示情報生成部14が指示情報を生成すると、ネットワーク3を介して、その指示情報をセンサ機器1−1〜1−Nに送信する(図5のステップST1、図7のステップST31)。
The instruction
Details of the instruction information generation processing by the instruction
When the instruction
ここで、指示情報送信部15がセンサ機器1−1〜1−Nに送信する指示情報は、センサ機器1−1〜1−Nからの送信を希望する属性情報に対応するIDを含む情報である。
また、指示情報送信部15がセンサ機器1−1〜1−Nに送信する指示情報は、IDに対応する属性情報の変更を指示する制御情報を含む情報である。ただし、指示情報は、IDに対応する属性情報を変更する必要がない場合、制御情報を含まない。
例えば、センサ機器1−1〜1−Nからの送信を希望する属性情報が、映像のフレームレート、映像の圧縮方式、映像圧縮ストリームのビットレートである場合、指示情報は、ID=4,5,6を含んでいる。
ここでは、IDが0〜15の整数である例を示しているが、センサ情報及び属性情報を識別することができれば、どのような情報でもよい。
この実施の形態1では、指示情報送信部15がIDを含む指示情報を送信する例を説明するが、IDを含む指示情報を送信するものに限るものではない。
例えば、15個の属性情報に対応するID順に、当該属性情報の送信を要求している旨を示す“1”、または、当該属性情報の送信を要求していない旨を示す“0”などのデータが並んでいる指示情報としてもよい。
例えば、15個の属性情報のうち、ID=4とID=5の属性情報の送信を要求するが、それ以外の属性情報の送信を要求しない場合、“000011000000000”のような指示情報が考えられる。
Here, the instruction information transmitted to the sensor devices 1-1 to 1-N by the instruction
In addition, the instruction information transmitted from the instruction
For example, when the attribute information desired to be transmitted from the sensor devices 1-1 to 1-N is a video frame rate, a video compression method, and a video compression stream bit rate, the instruction information includes ID = 4, 5 , 6.
Here, an example in which the ID is an integer of 0 to 15 is shown, but any information may be used as long as sensor information and attribute information can be identified.
In the first embodiment, an example in which the instruction
For example, “1” indicating that the transmission of the attribute information is requested or “0” indicating that the transmission of the attribute information is not requested in the ID order corresponding to the 15 pieces of attribute information. Instruction information in which data is arranged may be used.
For example, out of 15 pieces of attribute information, if transmission of attribute information with ID = 4 and ID = 5 is requested, but transmission of other attribute information is not requested, instruction information such as “000011000000000000” is considered. .
センサ機器1−1〜1−Nは、サーバ装置2の指示情報送信部15から指示情報が送信されていなければ(図6のステップST21:NOの場合)、指示情報送信部15から指示情報が送信されるまで待機する。
センサ機器1−1〜1−Nは、サーバ装置2の指示情報送信部15から指示情報が送信されてくると(図6のステップST21:YESの場合)、指示情報送信部15から送信された指示情報を受信する(図6のステップST22)。
If the instruction information is not transmitted from the instruction
When the instruction information is transmitted from the instruction
センサ機器1−1〜1−Nは、受信した指示情報に制御情報が含まれていれば(図6のステップST23:YESの場合)、その指示情報に含まれている制御情報に従って、その指示情報に含まれているIDに対応する属性情報を変更する(図6のステップST24)。
例えば、指示情報に含まれている制御情報が、ID=4における映像のフレームレートを“xxx”に変更する旨を指示する情報であれば、センサ情報である圧縮ストリームに含まれる映像圧縮ストリームのフレームレートが“xxx”になるように属性情報を変更する。
また、例えば、指示情報に含まれている制御情報が、ID=5における映像の圧縮方式を“BB”に変更する旨を指示する情報であれば、センサ情報である圧縮ストリームに含まれる映像圧縮ストリームの圧縮方式が“BB”になるように属性情報を変更する。
センサ機器1−1〜1−Nは、指示情報送信部15から送信された指示情報に制御情報が含まれていなければ(図6のステップST23:NOの場合)、センサ情報の属性情報を変更する処理を行わない。
If the received instruction information includes control information (step ST23 in FIG. 6: YES), the sensor devices 1-1 to 1-N perform the instruction according to the control information included in the instruction information. The attribute information corresponding to the ID included in the information is changed (step ST24 in FIG. 6).
For example, if the control information included in the instruction information is information indicating that the frame rate of the video with ID = 4 is to be changed to “xxx”, the video compression stream included in the compressed stream that is sensor information. The attribute information is changed so that the frame rate becomes “xxx”.
Further, for example, if the control information included in the instruction information is information indicating that the video compression method with ID = 5 is to be changed to “BB”, the video compression included in the compressed stream that is sensor information The attribute information is changed so that the compression method of the stream is “BB”.
If the control information is not included in the instruction information transmitted from the instruction information transmission unit 15 (step ST23 in FIG. 6: NO), the sensor devices 1-1 to 1-N change the attribute information of the sensor information. Do not perform the process.
次に、センサ機器1−1〜1−Nは、時刻tの映像を撮影し、その映像を圧縮することで、映像圧縮ストリームを生成する。また、センサ機器1−1〜1−Nは、時刻tの音声を圧縮することで、音声圧縮ストリームを生成する。
センサ機器1−1〜1−Nは、センサ情報として、映像圧縮ストリーム及び音声圧縮ストリームを含む圧縮ストリームをサーバ装置2に送信する(図6のステップST25、図7のステップST32)。
また、センサ機器1−1〜1−Nは、指示情報に含まれているIDに対応する属性情報をサーバ装置2に送信する(図6のステップST25、図7のステップST32)。
例えば、指示情報に含まれているIDが、ID=4とID=5である場合、センサ機器1−1〜1−Nは、属性情報として、映像のフレームレート及び映像の圧縮方式をサーバ装置2に送信する。
Next, the sensor devices 1-1 to 1-N capture a video at time t and compress the video to generate a video compression stream. In addition, the sensor devices 1-1 to 1-N generate audio compression streams by compressing audio at time t.
The sensor devices 1-1 to 1-N transmit, as sensor information, a compressed stream including a video compression stream and an audio compression stream to the server device 2 (step ST25 in FIG. 6 and step ST32 in FIG. 7).
The sensor devices 1-1 to 1-N transmit attribute information corresponding to the ID included in the instruction information to the server device 2 (step ST25 in FIG. 6 and step ST32 in FIG. 7).
For example, when the IDs included in the instruction information are ID = 4 and ID = 5, the sensor devices 1-1 to 1-N specify the video frame rate and the video compression method as the attribute information in the server device. 2 to send.
サーバ装置2のセンサ情報受信部11は、センサ機器1−1〜1−Nからセンサ情報及び属性情報が送信されていなければ(図5のステップST2:NOの場合)、センサ機器1−1〜1−Nからセンサ情報及び属性情報が送信されるまで待機する。
サーバ装置2のセンサ情報受信部11は、センサ機器1−1〜1−Nからセンサ情報及び属性情報が送信されてくると(図5のステップST2:YESの場合)、そのセンサ情報及び属性情報を受信する(図5のステップST3)。
サーバ装置2のセンサ情報受信部11は、センサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報を受信すると、そのセンサ情報及び属性情報を記憶部12に格納する(図5のステップST4)。
例えば、指示情報に含まれているIDが、ID=4とID=5である場合、センサ情報受信部11は、属性情報として、映像のフレームレート及び映像の圧縮方式を記憶部12に格納する。
If sensor information and attribute information are not transmitted from the sensor devices 1-1 to 1-N (in the case of step ST2 in FIG. 5: NO), the sensor
When sensor information and attribute information are transmitted from the sensor devices 1-1 to 1-N (step ST2 in FIG. 5: YES), the sensor
When the sensor
For example, if the IDs included in the instruction information are ID = 4 and ID = 5, the sensor
センサ情報受信部11における図5のステップST2〜ST4の処理は、全てのセンサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報の受信を完了するまでの間、繰り返し実施される(図5のステップST5:NOの場合)。
センサ情報受信部11が全てのセンサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報を受信すると(図5のステップST5:YESの場合)、サーバ装置2の有用度算出部13がセンサ情報の有用度を算出する処理を開始する。
The processes of steps ST2 to ST4 in FIG. 5 in the sensor
When the sensor
ここでは、センサ情報受信部11が、全てのセンサ機器1−1〜1−Nから送信されたセンサ情報及び属性情報を受信すると、有用度算出部13がセンサ情報の有用度を算出する処理を開始する例を説明するが、これに限るものではない。
例えば、指示情報送信部15が指示情報を送信した時点から、事前に設定された時間を経過しても、センサ情報受信部11が、一部のセンサ機器1のセンサ情報及び属性情報を受信することができない場合でも、有用度算出部13が有用度の算出処理を開始するようにしてもよい。
一部のセンサ機器1のセンサ情報及び属性情報を受信することができない場合でも、有用度算出部13がセンサ情報の有用度を算出する処理を開始することで、一部のセンサ機器1の不具合に伴ってネットワークシステムの処理が停止してしまうリスクを低減することができる。
Here, when the sensor
For example, the sensor
Even when the sensor information and attribute information of some
サーバ装置2の有用度算出部13は、記憶部12に格納されているセンサ機器1−n(n=1,2,・・・,N)のセンサ情報及び属性情報から、そのセンサ情報の有用度を算出する(図5のステップST6)。
即ち、有用度算出部13は、記憶部12に格納されているセンサ機器1−nのセンサ情報及び属性情報を取得する。
以下、説明の便宜上、センサ情報及び属性情報を「関数変数dn,k(t)」として取得する。k=1,2,・・・,Kである。
例えば、記憶部12に(K−1)個の属性情報が格納されている場合、有用度算出部13は、関数変数dn,1(t)としてセンサ情報を取得し、関数変数dn,2(t)〜dn,K(t)として(K−1)個の属性情報を取得する。
具体的には、例えば、センサ情報として圧縮ストリーム、属性情報として映像のフレームレート及び映像の圧縮方式が記憶部12に格納されている場合、有用度算出部13は、関数変数dn,1(t)として圧縮ストリームを取得し、関数変数dn,2(t)として映像のフレームレートを取得し、関数変数dn,3(t)として映像の圧縮方式を取得する。
ここでは、センサ情報である圧縮ストリームを関数変数dn,1(t)としているが、これは一例に過ぎず、圧縮ストリームを関数変数dn,2(t)又は関数変数dn,3(t)としてもよい。
The
That is, the
Hereinafter, for convenience of explanation, sensor information and attribute information are acquired as “function variable d n, k (t)”. k = 1, 2,...
For example, when (K−1) pieces of attribute information are stored in the
Specifically, for example, when the
Here, the compressed stream that is sensor information is a function variable dn , 1 (t), but this is only an example, and the compressed stream is a function variable dn , 2 (t) or a function variable dn , 3 ( t).
有用度算出部13は、センサ機器1−nのセンサ情報及び属性情報である関数変数dn,k(t)(k=1,2,・・・,K)を取得すると、以下の式(1)に示すように、関数変数dn,k(t)を関数fk(・)(k=1,2,・・・,K)に代入することで、センサ機器1−nの有用度Sn(t)を算出する。
n=1,2,・・・,N
式(1)において、fk(dn,k(t))はセンサ機器1−nの有用度Sn(t)を決めるk番目(k=1,2,・・・,K)の要素の有用度を示すスコアを算出する関数である。この実施の形態1では、説明の便宜上、fk(dn,k(t))は、有用度が高い程、スコアが高くなる関数であるものとするが、有用度が高い程、スコアが低くなる関数であってもよい。
ak(k=1,2,・・・,K)は関数fk(dn,k(t))の重み係数、a0はオフセット係数である。
この実施の形態1では、関数fk(・)、重み係数ak及びオフセット係数a0は、事前に設定されているものとする。
式(1)の例では、関数f1(・)〜fK(・)に代入する関数変数がdn,1(t)〜dn,K(t)であり、関数毎に、代入する関数変数が異なる例を示しているが、関数f1(・)〜fK(・)に代入する関数変数が同じであってもよい。
このため、関数f1(・)〜fK(・)に代入する関数変数が、例えば、全てdn,1(t)であってもよいし、全てdn,2(t)であってもよい。
また、関数f1(・)〜f5(・)に代入する関数変数が、全てdn,1(t)であって、関数f6(・)〜fK(・)に代入する関数変数が、全てdn,2(t)であってもよい。
When the
n = 1, 2,..., N
In equation (1), f k (dn , k (t)) is a k-th (k = 1, 2,..., K) element that determines the usefulness S n (t) of the sensor device 1-n. It is a function which calculates the score which shows the usefulness of. In the first embodiment, for convenience of explanation, f k (d n, k (t)) is a function whose score increases as the usefulness increases. However, the score increases as the usefulness increases. It may be a lowering function.
a k (k = 1, 2,..., K) is a weight coefficient of the function f k (dn , k (t)), and a 0 is an offset coefficient.
In the first embodiment, it is assumed that the function f k (·), the weight coefficient a k and the offset coefficient a 0 are set in advance.
In the example of Expression (1), the function variables to be assigned to the functions f 1 (·) to f K (·) are dn , 1 (t) to dn , K (t), and are assigned for each function. Although an example in which the function variables are different is shown, the function variables to be assigned to the functions f 1 (•) to f K (•) may be the same.
For this reason, all the function variables to be assigned to the functions f 1 (·) to f K (·) may be, for example, dn, 1 (t), or all dn , 2 (t). Also good.
Further, all the function variables to be assigned to the functions f 1 (·) to f 5 (·) are d n, 1 (t), and the function variables to be assigned to the functions f 6 (·) to f K (·). May all be d n, 2 (t).
以下、関数fk(dn,k(t))の具体例を列挙する。
ここでは、センサ機器1−nがカメラであり、センサ情報がカメラにより撮影された映像である場合の関数fk(dn,k(t))の具体例(1)〜(7)を説明する。
Hereinafter, specific examples of the function f k (dn , k (t)) are listed.
Here, specific examples (1) to (7) of the function f k (dn , k (t)) in the case where the sensor device 1-n is a camera and the sensor information is an image captured by the camera will be described. To do.
(1)関数fk(dn,k(t))として、以下の式(2)に示すように、カメラにより撮影された時刻tの映像の動き量を算出する関数が挙げられる。
式(2)において、areamotion(dn,k(t))は時刻tの映像内で動きがある領域の面積を示し、areaall(dn,k(t))は時刻tの映像全体の面積を示すものである。動きがある領域の面積は当該領域の解像度に相当し、映像全体の面積は映像全体の解像度に相当する。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
A(areamotion(dn,k(t))/areaall(dn,k(t)))は、動きがある領域の面積率を変数とする関数であり、動きがある領域の面積率が大きい程、有用度が高くなる値を返す関数である。例えば、人が密集しているようなエリアをカメラが撮影している場合、一般的に映像内で動きがある領域の面積が大きくなるため、A(・)は密集エリアを撮影しているカメラのセンサ情報の有用度を高める関数となる。
(1) As the function f k (d n, k (t)), as shown in the following formula (2), there is a function for calculating the motion amount of the video imaged at the time t taken by the camera.
In equation (2), area motion (dn , k (t)) indicates the area of a region where there is motion in the video at time t, and area all (dn , k (t)) is the entire video at time t. The area is shown. The area of a region where there is movement corresponds to the resolution of the region, and the area of the entire image corresponds to the resolution of the entire image.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
A (area motion (dn , k (t)) / area all (dn , k (t))) is a function having the area ratio of the area with motion as a variable, and the area ratio of the area with motion It is a function that returns a value whose usefulness is higher as is larger. For example, if the camera is shooting an area where people are crowded, the area of the region where there is movement generally increases in the video, so A (•) is the camera shooting the crowded area. This is a function that increases the usefulness of sensor information.
(2)関数fk(dn,k(t))として、以下の式(3)に示すように、カメラにより撮影された時刻tの映像の平均動き量を算出する関数が挙げられる。
式(3)において、meanmotion(dn,k(t))は時刻tの映像内の平均動き量を示すものである。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
B(meanmotion(dn,k(t)))は映像全体の平均動き量を変数とする関数であり、映像内の平均の動きが大きい程、有用度が高くなる値を返す関数である。例えば、映像内の多くの人が動いているような状況下では、一般的に映像全体の平均動き量が大きくなるため、B(・)はこのような状況を撮影しているカメラのセンサ情報の有用度を高める関数となる。
(2) As the function f k (d n, k (t)), as shown in the following formula (3), there is a function for calculating the average motion amount of the video imaged at time t taken by the camera.
In equation (3), mean motion (dn , k (t)) represents the average motion amount in the video at time t.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
B (mean motion (dn , k (t))) is a function that uses the average motion amount of the entire video as a variable, and returns a value that increases the degree of usefulness as the average motion in the video increases. . For example, in a situation where many people in the video are moving, the average motion amount of the entire video generally becomes large, so B (•) is sensor information of a camera that is shooting such a situation. It becomes a function that increases the usefulness of.
(3)関数fk(dn,k(t))として、以下の式(4)に示すように、カメラにより撮影された時刻tの映像内に存在している人の数をカウントする関数が挙げられる。
式(4)において、count(dn,k(t))は映像内に存在している人の数を示すものである。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
C(count(dn,k(t)))は映像内に存在している人の数を変数とする関数であり、人数が多い程、有用度が高くなる値を返す関数である。例えば、人が密集しているようなエリアをカメラが撮影している場合、映像内に存在している人の数が多くなるため、C(・)は密集エリアを撮影しているカメラのセンサ情報の有用度を高める関数となる。
(3) As a function f k (dn , k (t)), as shown in the following formula (4), a function for counting the number of people present in the video at time t photographed by the camera Is mentioned.
In equation (4), count (dn , k (t)) indicates the number of people present in the video.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
C (count (dn , k (t))) is a function that uses the number of people present in the video as a variable, and returns a value that increases the usefulness as the number of people increases. For example, when a camera is shooting an area where people are crowded, the number of people present in the video increases, so C (•) is a sensor of a camera shooting a crowded area. This function increases the usefulness of information.
(4)関数fk(dn,k(t))として、以下の式(5)に示すように、カメラにより撮影された時刻tの映像内に混雑度を特定する関数が挙げられる。
式(5)において、density(dn,k(t))は映像内の人の混雑度を示すものである。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
D(density(dn,k(t)))は映像内の人の混雑度を変数とする関数であり、混雑度が高い程、有用度が高くなる値を返す関数である。例えば、人が混雑しているエリアをカメラが撮影している場合、映像内の人の混雑度が高くなるため、D(・)は人が混雑しているエリアを撮影しているカメラのセンサ情報の有用度を高める関数となる。
(4) As the function f k (d n, k (t)), as shown in the following equation (5), a function for specifying the degree of congestion in the video at time t photographed by the camera can be mentioned.
In equation (5), density (dn , k (t)) represents the degree of congestion of people in the video.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
D (density (dn , k (t))) is a function that uses the degree of congestion of people in the video as a variable, and is a function that returns a value that increases the degree of usefulness as the degree of congestion increases. For example, when the camera is shooting an area where people are crowded, the degree of crowding of people in the video increases, so D (•) is a sensor of a camera shooting an area where people are crowded. This function increases the usefulness of information.
(5)関数fk(dn,k(t))として、以下の式(6)に示すように、カメラにより撮影された時刻tの映像内に存在している人の識別容易度を特定する関数が挙げられる。
式(6)において、humanSize(dn,k(t))は映像内に存在している人の領域に含まれる画素の数と、映像内に存在している人の体の包含度とに基づく、人の識別容易度を示すものである。体の包含度は、人の全身が映像内に映っている場合には100%になり、人の半分が映像内に映っている場合には50%になる。また、人の識別容易度は、映像内の物体が人であるか否かを識別する際の識別の容易さを示す指標である。
関数変数dn,k(t)としては、例えば、ID=15の圧縮ストリームに含まれている映像圧縮ストリームを用いることができる。
E(humanSize(dn,k(t)))は映像内に存在している人の識別容易度を変数とする関数であり、識別容易度が高い程、有用度が高くなる値を返す関数である。例えば、カメラが人の全身を撮影している場合、人の識別容易度が高くなるため、E(・)は人の全身を撮影しているカメラのセンサ情報の有用度を高める関数となる。
(5) As a function f k (d n, k (t)), as shown in the following formula (6), the identification degree of the person existing in the video at time t photographed by the camera is specified. Function.
In equation (6), humanSize (dn , k (t)) is the number of pixels included in the person's area existing in the image and the inclusion level of the person's body existing in the image. It shows the person's identification ease based. The inclusion level of the body is 100% when the whole body of the person is reflected in the video, and 50% when half of the person is reflected in the video. Also, the person identification ease is an index indicating the ease of identification when identifying whether or not the object in the video is a person.
As the function variable d n, k (t), for example, a video compression stream included in the compression stream with ID = 15 can be used.
E (humanSize (dn , k (t))) is a function having a variable of the ease of identification of a person existing in the video, and a function that returns a value that increases the usefulness as the ease of identification increases. It is. For example, when the camera captures the whole body of a person, the degree of human identification becomes high. Therefore, E (•) is a function that increases the usefulness of sensor information of a camera that captures the whole body of a person.
(6)関数fk(dn,k(t))として、以下の式(7)に示すように、全てのカメラが同じエリアを撮影してしまう状況を回避するために、同じエリアを多くのカメラが撮影している場合、絶対値が大きな負値を返す関数が挙げられる。
式(7)において、F(n,dn,1(t),dn,2(t),・・・,dn,K(t))は同じエリアを多くのカメラが撮影している場合、ペナルティ値として、絶対値が大きな負値を返すペナルティ関数である。
関数変数dn,k(t)としては、例えば、ID=12におけるカメラの位置情報、ID=13におけるx,y,z軸方向のカメラの回転角度、ID=14の焦点距離、ID=15の圧縮ストリームに含まれている映像圧縮ストリームなどを用いることができる。
例えば、同じエリアを多くのカメラが撮影している場合、F(・)は絶対値が大きな負値を返すため、F(・)は他のカメラと同じエリアを撮影しているカメラのセンサ情報の有用度を下げる関数となる。
これにより、全てのカメラが同じエリアを撮影してしまって、撮影していないエリアが生まれる状況を回避することができるようになる。
(6) As a function f k (d n, k (t)), as shown in the following formula (7), in order to avoid a situation where all the cameras capture the same area, the same area is increased. A function that returns a negative value with a large absolute value when the camera is shooting.
In the expression (7), F (n, dn , 1 (t), dn , 2 (t),..., Dn , K (t)) are taken by the same camera by many cameras. In this case, the penalty function returns a negative value having a large absolute value as a penalty value.
As the function variable d n, k (t), for example, the position information of the camera at ID = 12, the rotation angle of the camera in the x, y, and z axis directions at ID = 13, the focal length of ID = 14, ID = 15 A compressed video stream included in the compressed stream can be used.
For example, when many cameras are shooting the same area, F (•) returns a negative value with a large absolute value, so F (•) is sensor information of the camera shooting the same area as other cameras. It is a function that lowers the usefulness of.
As a result, it is possible to avoid a situation in which all the cameras have photographed the same area and an area not photographed is born.
(7)関数fk(dn,k(t))として、以下の式(8)に示すように、センサ情報の符号量を算出する関数が挙げられる。
式(8)において、bit(dn,k(t))は、センサ情報を送信するのに要する符号量である送信ビット数を示すものである。
関数変数dn,k(t)としては、例えば、ID=6における映像圧縮ストリームのビットレート、ID=11における音声圧縮ストリームのビットレートなどを用いることができる。
GF(bit(dn,k(t)))はセンサ情報の送信ビット数を変数とする関数であり、送信ビット数が少ない程、有用度が高くなる値を返す関数である。これにより、センサ情報の通信量を削減することができるようになる。
(7) As the function f k (d n, k (t)), as shown in the following equation (8), a function for calculating the code amount of the sensor information can be cited.
In equation (8), bit (dn , k (t)) indicates the number of transmission bits that is the amount of code required to transmit the sensor information.
As the function variable d n, k (t), for example, the bit rate of the video compression stream at ID = 6, the bit rate of the audio compression stream at ID = 11, and the like can be used.
GF (bit (dn , k (t))) is a function that uses the number of transmission bits of sensor information as a variable, and is a function that returns a value that becomes more useful as the number of transmission bits decreases. Thereby, the communication amount of sensor information can be reduced.
サーバ装置2の指示情報生成部14は、有用度算出部13がセンサ機器1−nから送信されたセンサ情報の有用度Sn(t)を算出すると、その有用度Sn(t)が高まるように、センサ機器1−nから送信されたセンサ情報の属性情報を更新する。
指示情報生成部14において、有用度Sn(t)が高まるように属性情報を更新する処理自体は公知の技術であるため詳細な説明を省略するが、例えば、以下に示すような処理を実施することで、有用度Sn(t)が高まるように属性情報を更新することができる。
When the
In the instruction
まず、指示情報生成部14は、センサ機器1−nであるカメラの映像を解析して、センサ機器1−nの監視対象エリア内の人数、または、センサ機器1−nの監視対象エリアに対する人の流量を求める。
指示情報生成部14は、センサ機器1−nの監視対象エリア内の人数、または、センサ機器1−nの監視対象エリアに対する人の流量を求めると、監視対象エリア内の人数から監視対象エリアの人分布状況を算出する。あるいは、指示情報生成部14は、監視対象エリアに対する人の流量から図9に示すような監視対象エリアの人密度分布状況を算出する。
図9は監視対象エリアの人密度分布状況の一例を示す説明図である。
First, the instruction
When the instruction
FIG. 9 is an explanatory diagram showing an example of a human density distribution situation in the monitoring target area.
次に、指示情報生成部14は、監視対象エリアの人分布状況又は人密度分布状況に基づいて、センサ情報の属性情報を調整しながら、式(1)に示す有用度Sn(t)を繰り返し算出するコンピュータシミュレーションを実施する。
例えば、有用度Sn(t)の算出に用いている属性情報が、D=4における映像のフレームレートと、ID=6における映像圧縮ストリームのビットレートとである場合、指示情報生成部14は、そのフレームレートとビットレートを調整しながら、フレームレートとビットレートの組み合わせ分だけ、有用度Sn(t)を繰り返し算出する。
指示情報生成部14は、コンピュータシミュレーションによって算出した全ての有用度Sn(t)を比較して、最大の有用度Sn(t)を特定し、最大の有用度Sn(t)になるときの属性情報を特定する。
例えば、有用度Sn(t)の算出に用いている属性情報が、フレームレートとビットレートである場合、指示情報生成部14は、最大の有用度Sn(t)になるときのフレームレートとビットレートを特定する。
Next, the instruction
For example, when the attribute information used for calculating the usefulness S n (t) is the frame rate of the video at D = 4 and the bit rate of the video compression stream at ID = 6, the instruction
Instruction
For example, when the attribute information used for calculating the usefulness S n (t) is the frame rate and the bit rate, the instruction
指示情報生成部14は、最大の有用度Sn(t)になるときの属性情報を特定すると、次回、センサ機器1−nから、その特定した属性情報を有するセンサ情報を受信することができるように、センサ情報の属性情報を特定した属性情報に更新する。
指示情報生成部14は、センサ機器1−1〜1−Nについて、更新後の属性情報を示す指示情報を生成し、その指示情報を指示情報送信部15に出力する(図5のステップST7)。
ここでは、説明の便宜上、更新前の属性情報に対応するIDと、更新後の属性情報に対応するIDとが同じであり、センサ機器1−nから送信を受ける属性情報の種類は変更されないものとする。
ただし、指示情報生成部14により属性情報が更新されることで、その属性情報の内容が変更されることがある。属性情報の内容の変更は、例えば、属性情報が映像圧縮ストリームのビットレートであれば、ビットレートの変更を意味し、属性情報が映像のフレームレートであれば、フレームレートの変更を意味する。
When the instruction
The instruction
Here, for convenience of explanation, the ID corresponding to the attribute information before update is the same as the ID corresponding to the attribute information after update, and the type of attribute information transmitted from the sensor device 1-n is not changed. And
However, the attribute information may be changed by updating the attribute information by the instruction
指示情報生成部14により生成される指示情報は、更新後の属性情報に対応するIDを含んでいる。
更新前の属性情報の内容と、更新後の属性情報の内容とが同じである場合、センサ機器1−nが、センサ情報の属性情報を更新後の属性情報に変更する制御を行う必要がないため、指示情報生成部14により生成される指示情報には制御情報が含まれない。
更新前の属性情報の内容と、更新後の属性情報の内容とが異なる場合、センサ機器1−nが、センサ情報の属性情報を更新後の属性情報に変更する制御を行う必要があるため、指示情報生成部14により生成される指示情報には制御情報が含まれる。
指示情報生成部14は、例えば、ID=6における映像圧縮ストリームのビットレートをBR1からBR2に更新している場合、映像圧縮ストリームのビットレートをBR1からBR2に変更する旨を指示する制御情報を指示情報に含める。
The instruction information generated by the instruction
When the content of the attribute information before the update and the content of the attribute information after the update are the same, it is not necessary for the sensor device 1-n to perform control to change the attribute information of the sensor information to the updated attribute information. Therefore, the control information is not included in the instruction information generated by the instruction
When the content of the attribute information before the update is different from the content of the attribute information after the update, the sensor device 1-n needs to perform control to change the attribute information of the sensor information to the attribute information after the update. The instruction information generated by the instruction
For example, when the bit rate of the video compression stream at ID = 6 is updated from BR 1 to BR 2 , the instruction
サーバ装置2の指示情報送信部15は、指示情報生成部14からセンサ機器1−1〜1−Nについての指示情報を受けると、センサ機器1−1〜1−Nについての指示情報をセンサ機器1−1〜1−Nに送信する(図5のステップST8、図7のステップST33)。
When the instruction
センサ機器1−1〜1−Nは、サーバ装置2の指示情報送信部15から指示情報が送信されていなければ(図6のステップST21:NOの場合)、指示情報送信部15から指示情報が送信されるまで待機する。
センサ機器1−1〜1−Nは、サーバ装置2の指示情報送信部15から指示情報が送信されてくると(図6のステップST21:YESの場合)、指示情報送信部15から送信された指示情報を受信する(図6のステップST22)。
If the instruction information is not transmitted from the instruction
When the instruction information is transmitted from the instruction
センサ機器1−1〜1−Nは、受信した指示情報に制御情報が含まれていれば(図6のステップST23:YESの場合)、その指示情報に含まれている制御情報に従って、その指示情報に含まれているIDに対応する属性情報を変更する(図6のステップST24)。
例えば、指示情報に含まれている制御情報が、映像圧縮ストリームのビットレートをBR1からBR2に変更する旨を指示する制御情報である場合、センサ機器1−1〜1−Nは、映像圧縮ストリームのビットレートをBR1からBR2に変更する。
If the received instruction information includes control information (step ST23 in FIG. 6: YES), the sensor devices 1-1 to 1-N perform the instruction according to the control information included in the instruction information. The attribute information corresponding to the ID included in the information is changed (step ST24 in FIG. 6).
For example, when the control information included in the instruction information is control information instructing to change the bit rate of the video compression stream from BR 1 to BR 2 , the sensor devices 1-1 to 1-N The bit rate of the compressed stream is changed from BR 1 to BR 2 .
次に、センサ機器1−1〜1−Nは、時刻tの映像を撮影し、その映像を圧縮することで、映像圧縮ストリームを生成する。また、センサ機器1−1〜1−Nは、時刻tの音声を圧縮することで、音声圧縮ストリームを生成する。
センサ機器1−1〜1−Nは、センサ情報として、映像圧縮ストリーム及び音声圧縮ストリームを含む圧縮ストリームをサーバ装置2に送信する(図6のステップST25、図7のステップST34)。
センサ機器1−1〜1−Nは、例えば、映像圧縮ストリームのビットレートをBR1からBR2に変更している場合、ビットレートがBR2である映像圧縮ストリームを含む圧縮ストリームをサーバ装置2に送信する。
以降、サーバ装置2及びセンサ機器1−1〜1−Nは、同様の処理を繰り返し実施する(図7のステップST33、ST34)。
即ち、サーバ装置2は、図5のステップST2〜ST8の処理を繰り返し実施し、センサ機器1−1〜1−Nは、図6のステップST21〜ST25の処理を繰り返し実施する。
Next, the sensor devices 1-1 to 1-N capture a video at time t and compress the video to generate a video compression stream. In addition, the sensor devices 1-1 to 1-N generate audio compression streams by compressing audio at time t.
The sensor devices 1-1 to 1-N transmit, as sensor information, a compressed stream including a video compression stream and an audio compression stream to the server device 2 (step ST25 in FIG. 6 and step ST34 in FIG. 7).
For example, when the bit rate of the video compression stream is changed from BR 1 to BR 2 , the sensor devices 1-1 to 1-N transmit the compressed stream including the video compression stream having the bit rate of BR 2 to the
Thereafter, the
That is, the
以上で明らかなように、この実施の形態1によれば、センサ機器1−1〜1−Nから送信されたセンサ情報及びセンサ情報の属性情報を受信するセンサ情報受信部11と、センサ情報受信部11により受信されたセンサ情報及び属性情報から、センサ情報の有用度を算出する有用度算出部13と、有用度算出部13により算出された有用度が高まるように、センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部14とを設け、指示情報送信部15が、指示情報生成部14により生成された指示情報をセンサ機器1−1〜1−Nに送信するように構成したので、センサ機器1−1〜1−Nから送信を受けるセンサ情報の有用度を高めることができる効果を奏する。
As apparent from the above, according to the first embodiment, the sensor
この実施の形態1では、サーバ装置2が、センサ機器1−nから送信を受ける属性情報の種類を変更しない例を説明したが、例えば、サーバ装置2が、ユーザによる設定変更を受けることで、属性情報の種類を変更するものであってもよい。
サーバ装置2がセンサ機器1−nから送信を受ける属性情報の種類を変更する場合、指示情報生成部14が、種類変更後の属性情報に対応するIDを含む指示情報を生成し、指示情報送信部15が、その指示情報をセンサ機器1−1〜1−Nに送信する。
ここでは、ユーザによる設定変更を受けることで、サーバ装置2が属性情報の種類を変更する例を示しているが、これに限るものではない。
例えば、事前に設定された時間を経過しても、内容が更新されていない属性情報に対応するIDを指示情報から除外するようにしてもよい。また、事前に設定された時間以上、IDが指示情報に含まれていない属性情報に対応するIDを指示情報に含めるようにしてもよい。
In this
When the
Here, an example in which the
For example, an ID corresponding to attribute information whose content has not been updated even after a preset time may be excluded from the instruction information. In addition, an ID corresponding to attribute information whose ID is not included in the instruction information may be included in the instruction information for a preset time or more.
この実施の形態1では、有用度算出部13が、センサ機器1−nから送信された時刻tのセンサ情報の有用度Sn(t)を算出し、指示情報生成部14が、有用度Sn(t)が高まるように、時刻tのセンサ情報の属性情報を更新する例を示している。
この例に限るものではなく、有用度算出部13が、時刻(t+t’)のセンサ情報の有用度Sn(t+t’)を予測し、指示情報生成部14が、有用度Sn(t+t’)が高まるように、時刻(t+t’)のセンサ情報の属性情報を更新するものであってもよい。ただし、tは現在時刻であり、t’>0であるため、(t+t’)は未来の時刻である。
有用度算出部13は、有用度Sn(t+t’)を予測する場合、センサ機器1−nから送信される時刻(t+t’)のセンサ情報を予測する必要がある。時刻(t+t’)のセンサ情報を予測する処理自体は公知の技術であるため詳細な説明を省略するが、例えば、センサ情報の予測モデルを用いれば、時刻tを含む時刻t以前のセンサ情報から時刻(t+t’)のセンサ情報を予測することができる。
有用度算出部13は、時刻(t+t’)のセンサ情報を予測すると、時刻(t+t’)のセンサ情報及び属性情報である関数変数dn,k(t+t’)を式(1)に代入することで、センサ機器1−nの有用度Sn(t+t’)を算出する。
指示情報生成部14は、有用度Sn(t+t’)が高まるように、時刻(t+t’)のセンサ情報の属性情報を更新する。この属性情報の更新処理は、時刻tのセンサ情報の属性情報を更新する場合と同様の処理である。
In the first embodiment, the
The
When the
When the
The instruction
この実施の形態1では、指示情報生成部14が、最大の有用度Sn(t)になるときの属性情報を特定し、センサ機器1−nから、その特定した属性情報を有するセンサ情報を受信することができるように、センサ情報の属性情報を更新する例を説明している。
また、この実施の形態1では、指示情報生成部14が、ID=6の属性情報である映像圧縮ストリームのビットレートをBR1からBR2に更新している例を示している。
ここでは、属性情報の他の更新例として、ID=13の属性情報であるx,y,z軸方向のカメラの回転角度を更新する例を説明する。
In the first embodiment, the instruction
In the first embodiment, the instruction
Here, as another update example of the attribute information, an example of updating the rotation angle of the camera in the x, y, and z axis directions, which is the attribute information of ID = 13, will be described.
図10はサーバ装置2とセンサ機器1−1〜1−4とを備えたネットワークシステムが監視対象エリアA,Bを監視している様子を示す説明図である。
図10では、センサ機器1−1〜1−4がカメラである例を示している。
また、センサ機器1−1,1−2は監視対象エリアAを撮影し、センサ機器1−3,1−4は監視対象エリアBを撮影している。
図10では、監視対象エリアAに存在している人の数が多く、監視対象エリアBに存在している人の数が少ない例を示している。
FIG. 10 is an explanatory diagram showing a state in which the network system including the
FIG. 10 illustrates an example in which the sensor devices 1-1 to 1-4 are cameras.
Further, the sensor devices 1-1 and 1-2 photograph the monitoring target area A, and the sensor devices 1-3 and 1-4 photograph the monitoring target area B.
FIG. 10 shows an example in which the number of people existing in the monitoring target area A is large and the number of people existing in the monitoring target area B is small.
有用度算出部13は、センサ機器1−n(n=1,2,3,4)から送信されたセンサ情報の有用度Sn(t)(n=1,2,3,4)を算出する。
指示情報生成部14は、センサ情報の有用度Sn(t)(n=1,2,3,4)を算出すると、有用度Sn(t)が高まるように、センサ機器1−nから送信されたセンサ情報の属性情報を更新する。
以下、指示情報生成部14による属性情報の更新処理を具体的に説明する。
The
When the instruction
The attribute information update process by the instruction
指示情報生成部14は、式(1)に示す有用度Sn(t)を繰り返し算出するコンピュータシミュレーションを実施する前に、監視対象エリアA,Bの外側領域に存在している人の分布状況を予測する。
即ち、指示情報生成部14は、センサ機器1−1,1−2により撮影された監視対象エリアAの映像から、監視対象エリアAの外側領域に存在している人の分布状況を予測する。
また、指示情報生成部14は、センサ機器1−3,1−4により撮影された監視対象エリアBの映像から、監視対象エリアBの外側領域に存在している人の分布状況を予測する。
監視対象エリアAの外側領域は、例えば、センサ機器1−1,1−2の回転角度を変更したときに映る領域が考えられる。
また、監視対象エリアBの外側領域は、例えば、センサ機器1−3,1−4の回転角度を変更したときに映る領域が考えられる。
ここでは、説明の便宜上、センサ機器1−3の回転角度を時計回り方向に変更したときに映る領域が、監視対象エリアAとなるものとする。
The instruction
That is, the instruction
In addition, the instruction
For example, the outer area of the monitoring target area A may be an area that appears when the rotation angles of the sensor devices 1-1 and 1-2 are changed.
Further, the outer area of the monitoring target area B may be an area that appears when the rotation angle of the sensor devices 1-3 and 1-4 is changed, for example.
Here, for convenience of explanation, it is assumed that an area that appears when the rotation angle of the sensor device 1-3 is changed in the clockwise direction is the monitoring target area A.
指示情報生成部14が、監視対象エリアA,Bの外側領域に存在している人の分布状況を予測する処理自体は公知の技術であるため詳細な説明を省略する。例えば、以下の非特許文献1に開示されている人の移動を予測する技術を用いれば、時刻tまでに監視対象エリアA,Bで観測された(撮影された)人の移動履歴から、監視対象エリアA,Bの外側領域に存在している人の分布状況を予測することができる。
[非特許文献1]
「Extended floor field CA model for evacuation dynamics 」
IEICE TRANS. INF. & SYST., Vol. E87-D (2004)
Since the process itself in which the instruction
[Non-Patent Document 1]
"Extended floor field CA model for evacuation dynamics"
IEICE TRANS. INF. & SYST., Vol. E87-D (2004)
指示情報生成部14は、監視対象エリアAの外側領域に存在している人の分布状況を予測すると、監視対象エリアAの外側領域におけるセンサ機器1−n(n=1,2)のセンサ情報として、その予測した人の分布状況を設定する。
指示情報生成部14は、監視対象エリアBの外側領域に存在している人の分布状況を予測すると、監視対象エリアBの外側領域におけるセンサ機器1−n(n=3,4)のセンサ情報として、その予測した人の分布状況を設定する。
When the instruction
When the instruction
指示情報生成部14は、監視対象エリアAにおけるセンサ機器1−n(n=1,2)のセンサ情報の属性情報を調整しながら、そのセンサ情報の有用度Sn(t)(n=1,2)を繰り返し算出するコンピュータシミュレーションを実施する。
指示情報生成部14は、監視対象エリアBにおけるセンサ機器1−n(n=3,4)のセンサ情報の属性情報を調整しながら、そのセンサ情報の有用度Sn(t)(n=3,4)を繰り返し算出するコンピュータシミュレーションを実施する。
The instruction
The instruction
また、指示情報生成部14は、監視対象エリアAの外側領域におけるセンサ機器1−n(n=1,2)のセンサ情報の属性情報を調整しながら、そのセンサ情報の有用度Sn(t)(n=1,2)を繰り返し算出するコンピュータシミュレーションを実施する。
指示情報生成部14は、監視対象エリアBの外側領域におけるセンサ機器1−n(n=3,4)のセンサ情報の属性情報を調整しながら、そのセンサ情報の有用度Sn(t)(n=3,4)を繰り返し算出するコンピュータシミュレーションを実施する。
In addition, the instruction
The instruction
指示情報生成部14は、センサ機器1−n(n=1,2,3,4)毎に、コンピュータシミュレーションによって算出した全ての有用度Sn(t)を比較して、最大の有用度Sn(t)を特定し、最大の有用度Sn(t)になるときの属性情報を特定する。
例えば、有用度Sn(t)の算出に用いている属性情報が、カメラの回転角度とフレームレートである場合、指示情報生成部14は、最大の有用度Sn(t)になるときのカメラの回転角度とフレームレートを特定する。
The instruction
For example, when the attribute information used for calculation of the usefulness S n (t) is the rotation angle and the frame rate of the camera, the instruction
指示情報生成部14は、最大の有用度Sn(t)になるときの属性情報を特定すると、次回、センサ機器1−n(n=1,2,3,4)から、その特定した属性情報を有するセンサ情報を受信することができるように、センサ情報の属性情報を特定した属性情報に更新する。
図11はサーバ装置2とセンサ機器1−1〜1−4とを備えたネットワークシステムが監視対象エリアA,Bを監視している様子を示す説明図である。
図11では、センサ機器1−3のセンサ情報の属性情報であるカメラの回転角度が更新されることで、センサ機器1−3の監視対象エリアが監視対象エリアBから監視対象エリアAに切り換えられている。
例えば、人が多い監視対象エリアを撮影しているカメラほど、当該カメラのセンサ情報の有用度Sn(t)が高くなる関数fk(dn,k(t))が、式(1)に含まれている場合には、図11に示すように、センサ機器1−3の監視対象エリアが監視対象エリアBから監視対象エリアAに切り換えられることが想定される。
When the instruction
FIG. 11 is an explanatory diagram showing a state in which the network system including the
In FIG. 11, the monitoring target area of the sensor device 1-3 is switched from the monitoring target area B to the monitoring target area A by updating the rotation angle of the camera, which is attribute information of the sensor information of the sensor device 1-3. ing.
For example, the function f k (d n, k (t)) that increases the usefulness S n (t) of the sensor information of the camera for a camera that captures a monitoring target area with more people is expressed by the following equation (1). 11, it is assumed that the monitoring target area of the sensor device 1-3 is switched from the monitoring target area B to the monitoring target area A as shown in FIG.
この実施の形態1では、センサ機器1−1〜1−Nがカメラである例を示したが、センサ機器1−1〜1−Nがカメラであるものに限るものではない。
センサ機器1−1〜1−Nとして、例えば、赤外センサ、距離センサ、レーザセンサ、マイクなどが考えられる。
In the first embodiment, an example is shown in which the sensor devices 1-1 to 1-N are cameras. However, the sensor devices 1-1 to 1-N are not limited to cameras.
As the sensor devices 1-1 to 1-N, for example, an infrared sensor, a distance sensor, a laser sensor, a microphone, and the like are conceivable.
実施の形態2.
上記実施の形態1では、サーバ装置2が指示情報をセンサ機器1−1〜1−Nに送信し、センサ機器1−1〜1−Nが、サーバ装置2から送信された指示情報が示す属性情報を有するセンサ情報をサーバ装置2に送信する例を説明している。
この実施の形態2では、サーバ装置2が指示情報をセンサ機器1−1〜1−Nに送信せずに、センサ機器1−1〜1−Nがセンサ情報の有用度を算出して、センサ情報の属性情報を更新し、更新後の属性情報を有するセンサ情報をサーバ装置2に送信する例を説明する。
In the first embodiment, the
In the second embodiment, the
図12はこの発明の実施の形態2によるネットワークシステムを示す構成図である。
図12のネットワークシステムは、サーバ装置2が指示情報をセンサ機器1−1〜1−Nに送信しないので、図1のネットワークシステムに含まれている指示情報を示す破線の矢印が記述されていない。
また、図12のネットワークシステムは、センサ機器1−1〜1−Nがセンサ情報をサーバ装置2に送信するが、センサ機器1−1〜1−Nがセンサ情報の属性情報をサーバ装置2に送信しない。
この実施の形態2のサーバ装置2は、センサ機器1−1〜1−Nから送信されるセンサ情報を受信することが主な処理であるため、有用度算出部13、指示情報生成部14及び指示情報送信部15などは不要である。
FIG. 12 is a block diagram showing a network system according to
In the network system of FIG. 12, since the
In the network system of FIG. 12, the sensor devices 1-1 to 1-N transmit the sensor information to the
The
図13はこの発明の実施の形態2によるネットワークシステムのセンサ機器1−1〜1−Nを示す構成図である。
図14はこの発明の実施の形態2によるネットワークシステムのセンサ機器1−1〜1−Nのハードウェア構成図である。
図13及び図14において、センサ情報取得部21は例えば図14のセンサ情報取得回路51で実現されるものであり、センサ情報を取得する。
FIG. 13 is a block diagram showing sensor devices 1-1 to 1-N of the network system according to the second embodiment of the present invention.
FIG. 14 is a hardware configuration diagram of sensor devices 1-1 to 1-N of the network system according to the second embodiment of the present invention.
13 and 14, the sensor
記憶部22は例えば図14の記憶回路52で実現されるものであり、センサ情報取得部21により取得されたセンサ情報を記憶するとともに、そのセンサ情報の属性情報を記憶する。
有用度算出部23は例えば図14の有用度算出回路53で実現されるものである。
有用度算出部23は記憶部22に記憶されているセンサ情報及び属性情報から、そのセンサ情報の有用度を算出する処理を実施する。
The
The
The
制御部24は例えば図14の制御回路54で実現されるものである。
制御部24は有用度算出部23により算出された有用度が高まるように、記憶部22に記憶されているセンサ情報の属性情報を更新するとともに、更新後の属性情報を有するセンサ情報を取得するように、センサ情報取得部21を制御する処理を実施する。
センサ情報送信部25は例えば図14のセンサ情報送信回路55で実現されるものであり、制御部24によってセンサ情報取得部21が制御されたのち、センサ情報取得部21により取得されたセンサ情報をサーバ装置2に送信する。
The
The
The sensor
図13では、センサ機器1−1〜1−Nの構成要素であるセンサ情報取得部21、記憶部22、有用度算出部23、制御部24及びセンサ情報送信部25のそれぞれが、図14に示すような専用のハードウェア、即ち、センサ情報取得回路51、記憶回路52、有用度算出回路53、制御回路54及びセンサ情報送信部25で実現されるものを想定している。
ここで、記憶回路52は、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROMなどの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
また、センサ情報取得回路51、有用度算出回路53、制御回路54及びセンサ情報送信部25は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
In FIG. 13, the sensor
Here, the
The sensor
センサ機器1−1〜1−Nの構成要素は、専用のハードウェアで実現されるものに限るものではなく、センサ機器1−1〜1−N2がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSPなどが該当する。
The components of the sensor devices 1-1 to 1-N are not limited to those realized by dedicated hardware, and the sensor devices 1-1 to 1-N2 may be software, firmware, or software and firmware. It may be realized in combination.
Software and firmware are stored as programs in the memory of the computer. The computer means hardware that executes a program, and corresponds to, for example, a CPU, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, and a DSP.
図15はセンサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
センサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される場合、記憶部22をコンピュータのメモリ61上に構成するとともに、センサ情報取得部21、有用度算出部23、制御部24及びセンサ情報送信部25の処理手順をコンピュータに実行させるためのプログラムをメモリ61に格納し、コンピュータのプロセッサ62がメモリ61に格納されているプログラムを実行するようにすればよい。
図16はセンサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される場合の処理手順を示すフローチャートである。
FIG. 15 is a hardware configuration diagram of a computer when the sensor devices 1-1 to 1-N are realized by software, firmware, or the like.
When the sensor devices 1-1 to 1-N are realized by software, firmware, or the like, the
FIG. 16 is a flowchart showing a processing procedure when the sensor devices 1-1 to 1-N are realized by software, firmware, or the like.
また、図14ではセンサ機器1−1〜1−Nの構成要素のそれぞれが専用のハードウェアで実現される例を示し、図15では、センサ機器1−1〜1−Nがソフトウェアやファームウェアなどで実現される例を示しているが、センサ機器1−1〜1−Nにおける一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。 FIG. 14 shows an example in which each component of the sensor devices 1-1 to 1-N is realized by dedicated hardware. In FIG. 15, the sensor devices 1-1 to 1-N include software, firmware, and the like. However, some components in the sensor devices 1-1 to 1-N are realized by dedicated hardware, and the remaining components are realized by software, firmware, or the like. There may be.
次に動作について説明する。
センサ機器1−n(n=1,2,・・・,N)のセンサ情報取得部21は、センサ情報を取得し、そのセンサ情報を記憶部22に格納する(図16のステップST41)。
センサ機器1−nの有用度算出部23は、記憶部22に格納されているセンサ機器1−nのセンサ情報及び属性情報から、そのセンサ情報の有用度Sn(t)を算出する(図16のステップST42)。
有用度算出部23による有用度Sn(t)の算出処理は、上記実施の形態1におけるサーバ装置2の有用度算出部13の算出処理と同様である。
Next, the operation will be described.
The sensor
The
The calculation process of the usefulness level S n (t) by the usefulness
センサ機器1−nの制御部24は、有用度算出部23がセンサ情報の有用度Sn(t)を算出すると、その有用度Sn(t)が高まるように、記憶部22に記憶されているセンサ情報の属性情報を更新する(図16のステップST43)。
制御部24による属性情報の更新処理は、上記実施の形態1におけるサーバ装置2の指示情報生成部14の更新処理と同様である。
また、制御部24は、更新後の属性情報を有するセンサ情報を取得するようにセンサ情報取得部21を制御する(図16のステップST44)。
When the
The update process of attribute information by the
Moreover, the
センサ機器1−nのセンサ情報送信部25は、制御部24がセンサ情報取得部21を制御したのち、センサ情報取得部21がセンサ情報を取得すると(図16のステップST45)、ネットワーク3を介して、そのセンサ情報をサーバ装置2に送信する(図16のステップST46)。
サーバ装置2は、センサ機器1−1〜1−Nから送信されたセンサ情報を受信する。
When the sensor
The
以上で明らかなように、この実施の形態2によれば、センサ情報を取得するセンサ情報取得部21と、センサ情報取得部21により取得されたセンサ情報及びセンサ情報の属性情報から、センサ情報の有用度を算出する有用度算出部23と、有用度算出部23により算出された有用度が高まるように、センサ情報の属性情報を更新し、更新後の属性情報を有するセンサ情報を取得するように、センサ情報取得部21を制御する制御部24とを設け、センサ情報送信部25が、制御部24によってセンサ情報取得部21が制御されたのち、センサ情報取得部21により取得されたセンサ情報を送信するように構成したので、サーバ装置2が受信するセンサ情報の有用度を高めることができる効果を奏する。
As apparent from the above, according to the second embodiment, the sensor
実施の形態3.
上記実施の形態1では、センサ機器1−1〜1−Nのそれぞれが、サーバ装置2と情報の送受信を実施するものを説明している。
この実施の形態3では、センサ機器1−1〜1−Nのうち、代表のセンサ機器1だけが、サーバ装置2と情報の送受信を実施する例を説明する。
In the first embodiment described above, each of the sensor devices 1-1 to 1-N performs transmission and reception of information with the
In the third embodiment, an example in which only the
図17はこの発明の実施の形態3によるネットワークシステムを示す構成図である。
図17では、ネットワークシステムが3台のセンサ機器1−1〜1−3を備えている例を示しているが、ネットワークシステムが備えるセンサ機器1の台数は何台でもよい。
図17の例では、3台のセンサ機器1−1〜1−3のうち、センサ機器1−1を代表のセンサ機器としている。
また、代表のセンサ機器であるセンサ機器1−1は、センサ機器1−2,1−3と通信可能としており、センサ情報、属性情報及び指示情報を他のセンサ機器1−2,1−3と送受信している。
FIG. 17 is a block diagram showing a network system according to
Although FIG. 17 shows an example in which the network system includes three sensor devices 1-1 to 1-3, the number of
In the example of FIG. 17, among the three sensor devices 1-1 to 1-3, the sensor device 1-1 is a representative sensor device.
The sensor device 1-1, which is a representative sensor device, can communicate with the sensor devices 1-2 and 1-3, and transmits sensor information, attribute information, and instruction information to the other sensor devices 1-2 and 1-3. Is sending and receiving.
次に動作について説明する。
センサ機器1−2,1−3は、センサ情報を取得すると、そのセンサ情報及び当該センサ情報の属性情報を代表のセンサ機器であるセンサ機器1−1に送信する。
代表のセンサ機器であるセンサ機器1−1は、センサ情報を取得すると、そのセンサ情報及び当該センサ情報の属性情報をサーバ装置2に送信するとともに、センサ機器1−2,1−3から送信されたセンサ情報及び属性情報をサーバ装置2に送信する。
Next, the operation will be described.
Upon acquiring the sensor information, the sensor devices 1-2 and 1-3 transmit the sensor information and attribute information of the sensor information to the sensor device 1-1 that is a representative sensor device.
When the sensor device 1-1, which is a representative sensor device, acquires the sensor information, the sensor device 1-1 and the attribute information of the sensor information are transmitted to the
サーバ装置2は、代表のセンサ機器であるセンサ機器1−1から送信されたセンサ情報及び属性情報、即ち、センサ機器1−1〜1−3により取得されたセンサ情報と、当該センサ情報の属性情報とを受信すると、上記実施の形態1と同様に指示情報を生成する。
即ち、サーバ装置2は、センサ機器1−1〜1−3により取得されたセンサ情報の属性情報をそれぞれ更新して、更新後の属性情報を示す指示情報をそれぞれ生成する。
サーバ装置2は、センサ機器1−1〜1−3宛の指示情報を代表のセンサ機器であるセンサ機器1−1に送信する。
ここで、更新前の属性情報の内容と、更新後の属性情報の内容とが異なるために、センサ機器1−1〜1−3が、センサ情報の属性情報を変更する制御を行う必要である場合、サーバ装置2が、上記実施の形態1と同様に、制御情報を指示情報に含める。
The
That is, the
The
Here, since the content of the attribute information before the update is different from the content of the attribute information after the update, it is necessary for the sensor devices 1-1 to 1-3 to perform control to change the attribute information of the sensor information. In this case, the
代表のセンサ機器であるセンサ機器1−1は、センサ機器1−2宛の指示情報をセンサ機器1−2に送信し、センサ機器1−3宛の指示情報をセンサ機器1−3に送信する。
代表のセンサ機器であるセンサ機器1−1は、センサ機器1−1宛の指示情報に制御情報が含まれている場合、上記実施の形態1と同様に、その制御情報に従って指示情報に含まれているIDに対応する属性情報を変更する。
センサ機器1−2は、センサ機器1−1から送信されたセンサ機器1−2宛の指示情報に制御情報が含まれている場合、その制御情報に従って指示情報に含まれているIDに対応する属性情報を変更する。
センサ機器1−3は、センサ機器1−1から送信されたセンサ機器1−3宛の指示情報に制御情報が含まれている場合、その制御情報に従って指示情報に含まれているIDに対応する属性情報を変更する。
The sensor device 1-1, which is a representative sensor device, transmits instruction information addressed to the sensor device 1-2 to the sensor device 1-2, and transmits instruction information addressed to the sensor device 1-3 to the sensor device 1-3. .
When the control information is included in the instruction information addressed to the sensor device 1-1, the sensor device 1-1 that is a representative sensor device is included in the instruction information according to the control information as in the first embodiment. Change the attribute information corresponding to the ID.
When the control information is included in the instruction information addressed to the sensor apparatus 1-2 transmitted from the sensor apparatus 1-1, the sensor apparatus 1-2 corresponds to the ID included in the instruction information according to the control information. Change attribute information.
When the control information is included in the instruction information addressed to the sensor apparatus 1-3 transmitted from the sensor apparatus 1-1, the sensor apparatus 1-3 corresponds to the ID included in the instruction information according to the control information. Change attribute information.
この実施の形態3では、サーバ装置2が、センサ機器1−1〜1−3宛の制御情報を指示情報に含めている例を説明しているが、これに限るものではない。
例えば、サーバ装置2は、代表のセンサ機器であるセンサ機器1−1宛の制御情報を指示情報に含めるとともに、センサ機器1−1宛の制御情報と、センサ機器1−2,1−3宛の制御情報との差分情報を指示情報に含めるようにしてもよい。
この場合、代表のセンサ機器であるセンサ機器1−1は、センサ機器1−1宛の制御情報と、センサ機器1−2宛の制御情報との差分情報をセンサ機器1−1宛の制御情報に加算する。
そして、センサ機器1−1は、差分情報をセンサ機器1−1宛の制御情報に加算した情報を、センサ機器1−2宛の制御情報としてセンサ機器1−2に送信する。
また、代表のセンサ機器であるセンサ機器1−1は、センサ機器1−1宛の制御情報と、センサ機器1−3宛の制御情報との差分情報をセンサ機器1−1宛の制御情報に加算する。
そして、センサ機器1−1は、差分情報をセンサ機器1−1宛の制御情報に加算した情報を、センサ機器1−3宛の制御情報としてセンサ機器1−3に送信する。
In the third embodiment, an example is described in which the
For example, the
In this case, the sensor device 1-1 which is a representative sensor device uses the difference information between the control information addressed to the sensor device 1-1 and the control information addressed to the sensor device 1-2 as control information addressed to the sensor device 1-1. Add to.
The sensor device 1-1 transmits information obtained by adding the difference information to the control information addressed to the sensor device 1-1 to the sensor device 1-2 as control information addressed to the sensor device 1-2.
The sensor device 1-1, which is a representative sensor device, uses the difference information between the control information addressed to the sensor device 1-1 and the control information addressed to the sensor device 1-3 as control information addressed to the sensor device 1-1. to add.
Then, the sensor device 1-1 transmits information obtained by adding the difference information to the control information addressed to the sensor device 1-1 to the sensor device 1-3 as control information addressed to the sensor device 1-3.
ここで、差分情報としては、以下のような例が挙げられる。
例えば、センサ機器1−1宛の制御情報が、映像のフレームレートをF1に変更する旨を指示する制御情報であり、センサ機器1−2宛の制御情報が、映像のフレームレートをF2に変更する旨を指示する制御情報である場合、2つのフレームレートの差分がF2−F1になる。このため、差分情報は、F2−F1のようになる。
Here, examples of the difference information include the following.
For example, control information addressed to the sensor device 1-1, a control information instructing to change the frame rate of the video to F 1, the control information addressed to the sensor device 1-2, the frame rate of video F 2 In the case of the control information instructing to change to, the difference between the two frame rates is F 2 −F 1 . Therefore, the difference information is as F 2 -F 1.
この実施の形態3によれば、センサ機器1−1〜1−Nのうち、代表のセンサ機器1だけが、サーバ装置2と情報の送受信を実施するので、センサ機器1−1〜1−Nのそれぞれが、サーバ装置2と情報の送受信を実施する場合よりも、ネットワーク3における通信の輻輳を抑制することができる。
According to the third embodiment, among the sensor devices 1-1 to 1-N, only the
この実施の形態3では、代表のセンサ機器がセンサ機器1−1である例を示したが、代表のセンサ機器が複数あってもよい。
図18はこの発明の実施の形態3によるネットワークシステムを示す構成図である。
図18では、ネットワークシステムが6台のセンサ機器1−1〜1−6を備えている例を示しているが、ネットワークシステムが備えるセンサ機器1の台数は2台以上であれば何台でもよい。
図18では、センサ機器1−1〜1−3の中の代表のセンサ機器がセンサ機器1−3であり、センサ機器1−4〜1−6の中の代表のセンサ機器がセンサ機器1−4である。
また、図18では、代表のセンサ機器であるセンサ機器1−3は、センサ機器1−1,1−2と通信可能としており、センサ情報、属性情報及び指示情報を他のセンサ機器1−1,1−2と送受信している。
代表のセンサ機器であるセンサ機器1−4は、センサ機器1−5,1−6と通信可能としており、センサ情報、属性情報及び指示情報を他のセンサ機器1−5,1−6と送受信している。
In the third embodiment, an example in which the representative sensor device is the sensor device 1-1 has been described. However, there may be a plurality of representative sensor devices.
FIG. 18 is a block diagram showing a network system according to
FIG. 18 shows an example in which the network system includes six sensor devices 1-1 to 1-6. However, the number of
In FIG. 18, the representative sensor device among the sensor devices 1-1 to 1-3 is the sensor device 1-3, and the representative sensor device among the sensor devices 1-4 to 1-6 is the
In FIG. 18, the sensor device 1-3, which is a representative sensor device, can communicate with the sensor devices 1-1 and 1-2, and the sensor information, attribute information, and instruction information are transmitted to the other sensor devices 1-1. , 1-2.
The sensor device 1-4, which is a representative sensor device, can communicate with the sensor devices 1-5 and 1-6, and transmits and receives sensor information, attribute information, and instruction information to and from the other sensor devices 1-5 and 1-6. doing.
実施の形態4.
上記実施の形態1〜3では、サーバ装置2が1台である例を示したが、この実施の形態4では、ネットワークシステムが複数台のサーバ装置2と、複数台のサーバ装置2を統括する統括サーバとを備える例を説明する。
In the first to third embodiments, an example in which there is one
図19はこの発明の実施の形態4によるネットワークシステムを示す構成図である。
図19では、ネットワークシステムが6台のセンサ機器1−1〜1−6を備えている例を示しているが、ネットワークシステムが備えるセンサ機器1の台数は2台以上であれば何台でもよい。
図19では、ネットワークシステムが2台のサーバ装置2−1,2−2を備えている例を示しているが、ネットワークシステムが備えるサーバ装置2の台数は2台以上であれば何台でもよい。
図19では、ネットワークシステムが2台のサーバ装置2を統括する統括サーバ70を備えている。
FIG. 19 is a block diagram showing a network system according to
FIG. 19 shows an example in which the network system includes six sensor devices 1-1 to 1-6. However, the number of
FIG. 19 shows an example in which the network system includes two server apparatuses 2-1 and 2-2. However, the number of
In FIG. 19, the network system includes a
サーバ装置2−1は、3台のセンサ機器1−1〜1−3と情報の送受信を実施し、サーバ装置2−2は、3台のセンサ機器1−4〜1−6と情報の送受信を実施する。
サーバ装置2−1は、図1のサーバ装置2と異なり、有用度の算出処理、指示情報の生成処理などを実施せずに、センサ機器1−1〜1−3から送信されたセンサ情報及び属性情報を統括サーバ70に転送する。
サーバ装置2−2は、図1のサーバ装置2と異なり、有用度の算出処理、指示情報の生成処理などを実施せずに、センサ機器1−4〜1−6から送信されたセンサ情報及び属性情報を統括サーバ70に転送する。
The server device 2-1 transmits and receives information to and from the three sensor devices 1-1 to 1-3, and the server device 2-2 transmits and receives information to and from the three sensor devices 1-4 to 1-6. To implement.
Unlike the
Unlike the
統括サーバ70は、図1のサーバ装置2と同様の機能として、有用度の算出処理、指示情報の生成処理などを実施する機能を備えている。
統括サーバ70は、サーバ装置2−1,2−2からセンサ情報及び属性情報を受けると、センサ機器1−1〜1−6宛の指示情報を生成し、センサ機器1−1〜1−3宛の指示情報をサーバ装置2−1に送信し、センサ機器1−4〜1−6宛の指示情報をサーバ装置2−2に送信する。
サーバ装置2−1は、統括サーバ70からセンサ機器1−1〜1−3宛の指示情報を受けると、センサ機器1−1〜1−3宛の指示情報をセンサ機器1−1〜1−3に転送する。
サーバ装置2−2は、統括サーバ70からセンサ機器1−4〜1−6宛の指示情報を受けると、センサ機器1−4〜1−6宛の指示情報をセンサ機器1−4〜1−6に転送する。
The
When the
When the server device 2-1 receives the instruction information addressed to the sensor devices 1-1 to 1-3 from the
When the server device 2-2 receives the instruction information addressed to the sensor devices 1-4 to 1-6 from the
この実施の形態4では、統括サーバ70は、図1のサーバ装置2の役割を担い、サーバ装置2−1は、センサ機器1−1〜1−3と統括サーバ70が送受信する情報を転送する役割を担っている。
また、サーバ装置2−2は、センサ機器1−4〜1−6と統括サーバ70が送受信する情報を転送する役割を担っている。
この実施の形態4でも、上記実施の形態1〜3と同様に、センサ機器1から送信を受けるセンサ情報の有用度を高めることができる効果を奏する。
In the fourth embodiment, the
The server device 2-2 plays a role of transferring information transmitted and received between the sensor devices 1-4 to 1-6 and the
In the fourth embodiment, as in the first to third embodiments, the usefulness of sensor information received from the
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .
1−1〜1−N センサ機器、2、2−1,2−2 サーバ装置、3 ネットワーク、10 データ送受信部、11 センサ情報受信部、12 記憶部、13 有用度算出部、14 指示情報生成部、15 指示情報送信部、21 センサ情報取得部、22 記憶部、23 有用度算出部、24 制御部、25 センサ情報送信部、31 センサ情報受信回路、32 記憶回路、33 有用度算出回路、34 指示情報生成回路、35 指示情報送信回路、41 メモリ、42 プロセッサ、51 センサ情報取得回路、52 記憶回路、53 有用度算出回路、54 制御回路、55 センサ情報送信回路、61 メモリ、62 プロセッサ、70 統括サーバ。
1-1 to 1-N sensor device, 2, 2-1, 2-2 server device, 3 network, 10 data transmission / reception unit, 11 sensor information reception unit, 12 storage unit, 13 usefulness calculation unit, 14
Claims (5)
前記センサ情報受信部により受信されたセンサ情報及び属性情報から、前記センサ情報の有用度を算出する有用度算出部と、
前記有用度算出部により算出された有用度が高まるように、前記センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部と、
前記指示情報生成部により生成された指示情報を前記センサ機器に送信する指示情報送信部と
を備えたサーバ装置。 A sensor information receiving unit that receives sensor information transmitted from the sensor device and attribute information of the sensor information;
From the sensor information and attribute information received by the sensor information receiving unit, a usefulness calculating unit that calculates the usefulness of the sensor information;
An instruction information generating unit that updates the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculating unit, and generates instruction information indicating the updated attribute information;
A server device comprising: an instruction information transmission unit that transmits instruction information generated by the instruction information generation unit to the sensor device.
前記センサ機器から送信されたセンサ情報及び属性情報を受信するサーバ装置とを備え、
前記サーバ装置は、
前記センサ機器から送信されたセンサ情報及び属性情報を受信するセンサ情報受信部と、
前記センサ情報受信部により受信されたセンサ情報及び属性情報から、前記センサ情報の有用度を算出する有用度算出部と、
前記有用度算出部により算出された有用度が高まるように、前記センサ情報の属性情報を更新し、更新後の属性情報を示す指示情報を生成する指示情報生成部と、
前記指示情報生成部により生成された指示情報を前記センサ機器に送信する指示情報送信部とを備えていることを特徴とするネットワークシステム。 A sensor device that transmits sensor information and attribute information of the sensor information; and
A server device that receives sensor information and attribute information transmitted from the sensor device;
The server device
A sensor information receiving unit for receiving sensor information and attribute information transmitted from the sensor device;
From the sensor information and attribute information received by the sensor information receiving unit, a usefulness calculating unit that calculates the usefulness of the sensor information;
An instruction information generating unit that updates the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculating unit, and generates instruction information indicating the updated attribute information;
A network system, comprising: an instruction information transmission unit that transmits the instruction information generated by the instruction information generation unit to the sensor device.
前記センサ情報取得部により取得されたセンサ情報及び前記センサ情報の属性情報から、前記センサ情報の有用度を算出する有用度算出部と、
前記有用度算出部により算出された有用度が高まるように、前記センサ情報の属性情報を更新し、更新後の属性情報を有するセンサ情報を取得するように、前記センサ情報取得部を制御する制御部と、
前記制御部によって前記センサ情報取得部が制御されたのち、前記センサ情報取得部により取得されたセンサ情報を送信するセンサ情報送信部と
を備えたセンサ機器。 A sensor information acquisition unit for acquiring sensor information;
From the sensor information acquired by the sensor information acquisition unit and the attribute information of the sensor information, a usefulness calculation unit that calculates the usefulness of the sensor information;
Control for controlling the sensor information acquisition unit so as to update the attribute information of the sensor information so as to increase the usefulness calculated by the usefulness calculation unit and to acquire sensor information having the updated attribute information. And
A sensor device comprising: a sensor information transmission unit configured to transmit the sensor information acquired by the sensor information acquisition unit after the sensor information acquisition unit is controlled by the control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016196292A JP2018061110A (en) | 2016-10-04 | 2016-10-04 | Server device, network system, and sensor device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016196292A JP2018061110A (en) | 2016-10-04 | 2016-10-04 | Server device, network system, and sensor device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018061110A true JP2018061110A (en) | 2018-04-12 |
Family
ID=61907694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016196292A Pending JP2018061110A (en) | 2016-10-04 | 2016-10-04 | Server device, network system, and sensor device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018061110A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101962A (en) * | 2016-12-21 | 2018-06-28 | 富士通株式会社 | Control device, control method, control program, and control system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002279560A (en) * | 2001-03-19 | 2002-09-27 | Fujitsu General Ltd | Monitoring method using network camera and monitoring system |
JP2014143477A (en) * | 2013-01-22 | 2014-08-07 | Canon Inc | Imaging system |
JP2014209311A (en) * | 2013-03-26 | 2014-11-06 | 日本電気株式会社 | Data collection management system, data collection management method, terminal and management device |
JP2016170541A (en) * | 2015-03-11 | 2016-09-23 | オムロン株式会社 | Sensor system |
-
2016
- 2016-10-04 JP JP2016196292A patent/JP2018061110A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002279560A (en) * | 2001-03-19 | 2002-09-27 | Fujitsu General Ltd | Monitoring method using network camera and monitoring system |
JP2014143477A (en) * | 2013-01-22 | 2014-08-07 | Canon Inc | Imaging system |
JP2014209311A (en) * | 2013-03-26 | 2014-11-06 | 日本電気株式会社 | Data collection management system, data collection management method, terminal and management device |
JP2016170541A (en) * | 2015-03-11 | 2016-09-23 | オムロン株式会社 | Sensor system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101962A (en) * | 2016-12-21 | 2018-06-28 | 富士通株式会社 | Control device, control method, control program, and control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8553099B2 (en) | Imaging terminal, display terminal, display method, and imaging system | |
CN110581948A (en) | electronic device for providing quality customized image, control method thereof and server | |
CN111107276B (en) | Information processing apparatus, control method thereof, storage medium, and imaging system | |
KR102386385B1 (en) | Electronic device and method for compressing image thereof | |
JP7222683B2 (en) | IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM | |
JP7233162B2 (en) | IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM | |
US20170201689A1 (en) | Remotely controlled communicated image resolution | |
JP2020068398A (en) | Control apparatus, imaging apparatus, control method, and program | |
US20210176430A1 (en) | Image capturing apparatus using learned model, information processing apparatus, methods of controlling respective apparatuses, learned model selection system, and storage medium | |
JP2023057157A (en) | Image capturing apparatus, method for controlling the same, and program | |
US20160088219A1 (en) | Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium | |
CN111105039A (en) | Information processing apparatus, control method thereof, and memory | |
JP2021534679A (en) | Image acquisition device control method and device | |
US20210152750A1 (en) | Information processing apparatus and method for controlling the same | |
JP2018061110A (en) | Server device, network system, and sensor device | |
US10491833B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable recording medium | |
US11843846B2 (en) | Information processing apparatus and control method therefor | |
US9807311B2 (en) | Imaging apparatus, video data transmitting apparatus, video data transmitting and receiving system, image processing method, and program | |
US10949713B2 (en) | Image analyzing device with object detection using selectable object model and image analyzing method thereof | |
JP6702737B2 (en) | Image blur correction apparatus and method for controlling image blur correction apparatus | |
JP2022045567A (en) | Imaging control device, imaging control method, and program | |
JP6576139B2 (en) | Imaging device | |
JP7353864B2 (en) | Information processing device, control method and program for information processing device, imaging system | |
JP2019062267A (en) | Imaging apparatus and control method therefor, and program | |
US20240098358A1 (en) | Information processing apparatus and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190920 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200303 |