JP2022127144A - Data communication device, client device, retransmission instruction method, and retransmission instruction program - Google Patents

Data communication device, client device, retransmission instruction method, and retransmission instruction program Download PDF

Info

Publication number
JP2022127144A
JP2022127144A JP2021025113A JP2021025113A JP2022127144A JP 2022127144 A JP2022127144 A JP 2022127144A JP 2021025113 A JP2021025113 A JP 2021025113A JP 2021025113 A JP2021025113 A JP 2021025113A JP 2022127144 A JP2022127144 A JP 2022127144A
Authority
JP
Japan
Prior art keywords
data
inference
target data
client device
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021025113A
Other languages
Japanese (ja)
Inventor
大介 久野
Daisuke Hisano
睦貴 中原
Mutsuki Nakahara
祥孝 牛久
Yoshitaka Ushiku
真衣 黒瀬
Mai Kurose
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Osaka University NUC
Original Assignee
Omron Corp
Osaka University NUC
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Osaka University NUC, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2021025113A priority Critical patent/JP2022127144A/en
Publication of JP2022127144A publication Critical patent/JP2022127144A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

To provide a technique that guarantees the accuracy of an inference task performed by an inference model while reducing network traffic.SOLUTION: A data communication device according to one aspect of the present invention receives compressed target data from a client device, obtains a result of performing an inference task on the received target data by using an inference model, calculates likelihood of the performance result of the inference task, and when the calculated likelihood is less than a threshold value, transmits, to the client device, an instruction to lower a compression rate and retransmit the target data.SELECTED DRAWING: Figure 1

Description

本発明は、データ通信装置、クライアント装置、再送指示方法、及び再送指示プログラムに関する。 The present invention relates to a data communication device, a client device, a retransmission instruction method, and a retransmission instruction program.

図1は、近年盛んに検討されているエッジコンピューティングの構成の一例を模式的に示す。図1に示されるとおり、エッジコンピューティング技術では、ユーザ端末(例えば、スマートフォン)、IoT(Internet of Things)端末等のクライアント装置を利用するユーザの近くにコンピュータサーバ群が配置される。コンピュータサーバ群をデータセンタに集約し、デジタルコンテンツを提供するクラウドネットワーク技術と比較して、エッジコンピューティング技術は、ユーザのクライアント装置とコンピュータサーバとが近い距離にあるため、低遅延でサービスを提供できる利点を有している。エッジコンピューティング技術は、自動運転、動画配信サービス、知的映像監視等のIoTアプリケーションと相性が特に良い。 FIG. 1 schematically shows an example of the configuration of edge computing, which has been actively studied in recent years. As shown in FIG. 1, in edge computing technology, a group of computer servers are arranged near users who use client devices such as user terminals (for example, smartphones) and IoT (Internet of Things) terminals. Compared to cloud network technology, which aggregates a group of computer servers in a data center and provides digital content, edge computing technology provides services with low latency because the user's client device and computer server are close to each other. have the advantage of being able to Edge computing technology is particularly compatible with IoT applications such as autonomous driving, video distribution services, and intelligent video surveillance.

ユーザのクライアント装置とエッジサーバとの間は、小規模な通信ネットワークが利用される傾向にあり、ネットワークのトラヒックの削減(すなわち、通信帯域の効率化)が課題として挙げられる。ネットワークのトラヒックを削減する方法の一つとして、非特許文献1-3では、クラウドサーバ、エッジサーバ等のサーバ装置に画像データを送信する前に、当該画像データを圧縮する方法が提案されている。また、非特許文献4では、深層畳み込み敵対的生成ネットワーク(DCGAN)を用いて、ビデオ通話の際に発生するネットワークのトラヒックを削減する方法が提案されている。 A small-scale communication network tends to be used between the user's client device and the edge server, and reduction of network traffic (that is, improvement of communication band efficiency) is an issue. As one method for reducing network traffic, Non-Patent Documents 1 to 3 propose a method of compressing image data before transmitting the image data to a server device such as a cloud server or an edge server. . In addition, Non-Patent Document 4 proposes a method of reducing network traffic generated during a video call using a deep convolutional adversarial generation network (DCGAN).

J. Chen and X. Ran, "Deep Learning With Edge Computing: A Review", Proc. the IEEE, vol. 107, no. 8, pp. 1655-1674, 2019.J. Chen and X. Ran, "Deep Learning With Edge Computing: A Review", Proc. the IEEE, vol. 107, no. 8, pp. 1655-1674, 2019. J. Ren, et al., "Distributed and Efficient Object Detection in Edge Computing: Challenges and Solutions", IEEE Network, vol. 32, no. 6, pp. 137-143, 2018.J. Ren, et al., "Distributed and Efficient Object Detection in Edge Computing: Challenges and Solutions", IEEE Network, vol. 32, no. 6, pp. 137-143, 2018. H. Li, et al., "AdaCompress: Adaptive Compression for Online Computer Vision Services", Proc. the ACM International Conf. Multimedia, 2019, pp. 2440-2448.H. Li, et al., "AdaCompress: Adaptive Compression for Online Computer Vision Services", Proc. the ACM International Conf. Multimedia, 2019, pp. 2440-2448. S. Watanabe, et al., "Traffic Reduction in Video Call and Chat using DNN-Based Image Reconstruction", Proc. IEEE International Conference on Communications (ICC). 2019.S. Watanabe, et al., "Traffic Reduction in Video Call and Chat using DNN-Based Image Reconstruction", Proc. IEEE International Conference on Communications (ICC). 2019.

本件発明者らは、上記従来の方法には、次のような問題点があることを見出した。すなわち、従来の方法によれば、画像データを圧縮することにより、当該画像データを送信する際に発生するネットワークのトラヒックを低減することができる。しかしながら、サーバ装置側において、例えば、訓練済みの機械学習モデル等により構成される推論モデルを使用して、得られた画像データに対して推論タスク(例えば、画像認識)を遂行する場合を想定する。この場合に、高い圧縮率で画像データを圧縮していることが、当該推論モデルにより遂行される推論タスクの精度に悪影響を及ぼす可能性がある。従来の方法では、このような可能性が想定されておらず、サーバ装置側において遂行される推論タスクの精度を保証することが困難であった。 The inventors of the present invention have found that the above conventional method has the following problems. That is, according to the conventional method, by compressing the image data, it is possible to reduce network traffic generated when the image data is transmitted. However, on the server device side, for example, using an inference model configured by a trained machine learning model etc., it is assumed that an inference task (for example, image recognition) is performed on the obtained image data. . In this case, compressing the image data with a high compression ratio can adversely affect the accuracy of the inference task performed by the inference model. In the conventional method, such a possibility was not assumed, and it was difficult to guarantee the accuracy of the inference task performed on the server device side.

なお、この問題点は、画像データをやり取りする場面に特有のものではない。例えば、音データ、センシングデータ等の画像データ以外の種類のデータをやり取りする場面でも同様の問題点が生じ得る。また、この問題点は、エッジコンピューティングを利用するケースに特有のものでもない。サーバ装置等のデータ通信装置とクライアント装置との間でデータをやり取りするあらゆる場面(例えば、クラウドネットワーク技術を採用する場面)に同様の問題点が生じ得る。 It should be noted that this problem is not peculiar to situations where image data is exchanged. For example, the same problem may occur in situations where data other than image data such as sound data and sensing data are exchanged. Nor is this problem unique to the use of edge computing. A similar problem can arise in any scene where data is exchanged between a data communication device such as a server device and a client device (for example, a scene where cloud network technology is employed).

本発明は、一側面では、このような事情を鑑みてなされたものであり、その目的は、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証する技術を提供することである。 SUMMARY OF THE INVENTION In one aspect, the present invention has been made in view of such circumstances, and its object is to provide a technique that guarantees the accuracy of inference tasks performed by inference models while reducing network traffic. That is.

本発明は、上述した課題を解決するために、以下の構成を採用する。 The present invention adopts the following configurations in order to solve the above-described problems.

すなわち、本発明の一側面に係るデータ通信装置は、圧縮された対象データをクライアント装置から受信するように構成されるデータ受信部と、推論モデルを使用することで受信した前記対象データに対して推論タスクを遂行した結果を取得するように構成される結果取得部と、前記推論モデルによる前記推論タスクの遂行結果の尤もらしさを算出するように構成される結果評価部と、算出された尤もらしさが閾値未満である場合に、圧縮率を低くした上で前記対象データを再送させる指示を前記クライアント装置に対して送信するように構成される再送指示部と、を備える。 That is, a data communication device according to one aspect of the present invention includes a data receiving unit configured to receive compressed target data from a client device; a result acquisition unit configured to acquire a result of performing an inference task; a result evaluation unit configured to calculate the likelihood of a result of performing the inference task by the inference model; and the calculated likelihood. is less than a threshold, the retransmission instruction unit is configured to transmit to the client device an instruction to retransmit the target data after lowering the compression rate.

当該構成では、クライアント装置及びデータ通信装置間で、圧縮された対象データをやり取りするようにすることで、ネットワークのトラヒックを低減することができる。圧縮率を高めれば高めるほど、トラヒックの低減が可能である。一方で、圧縮率を高くし過ぎると、対象データに対する推論モデルの推論精度が悪化してしまう可能性がある。そこで、当該構成では、受信された対象データに対する推論モデルによる推論タスクの遂行結果を取得し、取得された遂行結果の尤もらしさを算出する。尤もらしさは、推論モデルによる推論タスクの遂行結果が確かであるか否か(すなわち、推論モデルの推論結果に信頼性があるか否か)の程度を示す。この尤もらしさが閾値未満である場合に、圧縮率を低くした対象データを再送するようにする。これにより、圧縮率の低い対象データに対する推論モデルによる推論タスクの遂行を可能にし、推論結果の尤もらしさの向上を図ることができる。したがって、当該構成によれば、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証することができる。 In this configuration, network traffic can be reduced by exchanging compressed target data between the client device and the data communication device. Traffic can be reduced as the compression rate is increased. On the other hand, if the compression rate is too high, the inference accuracy of the inference model for the target data may deteriorate. Therefore, in this configuration, the performance result of the inference task by the inference model for the received target data is acquired, and the likelihood of the acquired performance result is calculated. The plausibility indicates whether or not the performance result of the inference task by the inference model is certain (that is, whether or not the inference result of the inference model is reliable). If this likelihood is less than a threshold, the target data with a lower compression rate is retransmitted. This enables the inference model to perform the inference task for target data with a low compression ratio, and improves the likelihood of the inference result. Therefore, according to this configuration, it is possible to guarantee the accuracy of the inference task performed by the inference model while reducing network traffic.

なお、一例では、データ通信装置は、推論モデルを保持して、推論タスクを遂行するよう構成されるサーバ装置(例えば、アプリケーションサーバ等)として動作してよい。この場合、推論モデルによる推論タスクの遂行は、データ通信装置において実行されてよい。すなわち、推論タスクを遂行した結果を取得することは、推論モデルを使用して、推論タスクを遂行することにより構成されてよい。他の一例では、データ通信装置は、推論モデルを保持して、推論タスクを遂行する他のコンピュータにデータを転送するように構成された転送装置(例えば、中継装置等)として動作してよい。この場合、推論モデルによる推論タスクの遂行は、他のコンピュータにおいて実行されてよい。すなわち、データ通信装置は、推論タスクを遂行した結果を他のコンピュータから取得してよい。 It should be noted that, in one example, the data communication device may operate as a server device (eg, an application server, etc.) that maintains the inference model and is configured to perform inference tasks. In this case, the performance of the inference task by the inference model may be performed in the data communication device. That is, obtaining results of performing an inference task may consist of performing an inference task using an inference model. In another example, the data communication device may operate as a transfer device (eg, relay device, etc.) configured to hold the inference model and transfer the data to another computer to perform the inference task. In this case, the performance of the inference task by the inference model may be performed on another computer. That is, the data communication device may obtain the results of performing the inference task from another computer.

上記一側面に係るデータ通信装置において、前記再送指示部は、前記再送させる指示と共に、算出された前記尤もらしさに応じて圧縮率を低下させる程度を更に指示するように構成されてよい。当該構成によれば、適切な圧縮率での再送を期待することができ、クライアント装置及びデータ通信装置間で対象データの再送が実行される回数を抑えることができる。したがって、当該構成によれば、対象データの再送によるネットワークのトラヒックの増加を抑制することができる。 In the data communication device according to the aspect described above, the retransmission instruction unit may be configured to further instruct the extent to which the compression rate is lowered according to the calculated likelihood, together with the retransmission instruction. According to this configuration, it is possible to expect retransmission at an appropriate compression rate, and it is possible to reduce the number of times the target data is retransmitted between the client device and the data communication device. Therefore, according to the configuration, it is possible to suppress an increase in network traffic due to retransmission of the target data.

上記一側面に係るデータ通信装置は、算出された前記尤もらしさが閾値未満である場合の前記再送させる指示に備えさせるために、前記再送させる指示を送信する前に、圧縮率を低くした前記対象データを生成させる指示(以下、「準備指示」とも記載する)を前記クライアント装置に対して送信するように構成される準備指示部を更に備えてもよい。データを圧縮する処理の負荷は比較的に大きく、当該処理には時間がかかる。クライアント装置は、データ通信装置から再送指示を受け取った後に、対象データを圧縮する処理を実行してもよいが、その場合、対象データを再送するまでに比較的に大きな遅延が発生する可能性がある。当該構成によれば、準備指示により、再送指示が与えられる前にクライアント装置にデータの圧縮処理を予め実行させることで、対象データを再送するまでにかかる時間を低減する(再送指示までに圧縮処理が完了している場合は遅延をなくす)ことができる。これにより、データ通信装置が圧縮された対象データを再度取得し、対象データに対する推論モデルによる推論タスクの遂行が再度実行されるまでにかかる時間を短縮することができる。 The data communication device according to the above aspect, in order to prepare for the retransmission instruction when the calculated likelihood is less than a threshold, reduces the compression rate before transmitting the retransmission instruction. The apparatus may further include a preparation instruction unit configured to transmit an instruction to generate data (hereinafter also referred to as a "preparation instruction") to the client device. The processing load for compressing data is relatively large, and the processing takes time. The client device may execute processing for compressing the target data after receiving the resend instruction from the data communication device. be. According to this configuration, the preparation instruction causes the client device to perform data compression processing in advance before the retransmission instruction is given, thereby reducing the time required to retransmit the target data (the compression processing is performed before the retransmission instruction is received). is completed). As a result, it is possible to shorten the time required for the data communication device to re-acquire the compressed target data and to perform the inference task for the target data by the inference model again.

上記一側面に係るデータ通信装置において、前記推論モデルは、機械学習により生成された訓練済みの機械学習モデルにより構成されてよい。当該構成によれば、対象データに対する推論タスクの遂行に、機械学習により生成された訓練済みモデルを使用する場面で、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証することができる。 In the data communication device according to one aspect, the inference model may be a trained machine learning model generated by machine learning. According to this configuration, when a trained model generated by machine learning is used to perform an inference task on target data, network traffic is reduced while guaranteeing the accuracy of the inference task performed by the inference model. can do.

上記一側面に係るデータ通信装置において、前記尤もらしさは、前記推論タスクの遂行結果の不確定性に基づいて算出されてよい。当該構成によれば、機械学習により生成された訓練済みの推論モデルによる推論タスクの遂行結果の尤もらしさを適正に評価することができる。これにより、推論モデルにより遂行される推論タスクの精度を適切に保証することができる。 In the data communication device according to the aspect described above, the likelihood may be calculated based on uncertainty of a performance result of the inference task. According to this configuration, it is possible to properly evaluate the likelihood of the performance result of the inference task by the trained inference model generated by machine learning. This allows adequate assurance of the accuracy of the inference tasks performed by the inference model.

上記一側面に係るデータ通信装置において、前記推論モデルは、前記機械学習により、前記推論タスクの遂行結果と共に、当該遂行結果の尤もらしさを出力するように訓練されていてよく、前記尤もらしさを算出することは、前記推論モデルの演算処理を実行した結果として、当該尤もらしさに対応する出力を得ることにより構成されてよい。当該構成によれば、機械学習により生成された訓練済みの推論モデルによる推論タスクの遂行結果の尤もらしさを適正に評価することができる。これにより、推論モデルにより遂行される推論タスクの精度を適切に保証することができる。 In the data communication device according to the above aspect, the inference model may be trained by the machine learning to output the performance result of the inference task and the likelihood of the performance result, and calculate the likelihood. Doing may comprise obtaining an output corresponding to the likelihood as a result of performing a computation of the inference model. According to this configuration, it is possible to properly evaluate the likelihood of the performance result of the inference task by the trained inference model generated by machine learning. This allows adequate assurance of the accuracy of the inference tasks performed by the inference model.

上記一側面に係るデータ通信装置において、前記対象データは、画像データにより構成されてよく、前記推論タスクは、前記画像データに写る対象物を認識することにより構成されてよい。当該構成によれば、クライアント装置及びデータ通信装置の間で画像データをやり取りし、推論タスクとして画像認識を遂行する場面で、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証することができる。 In the data communication device according to the above aspect, the target data may be image data, and the inference task may be configured by recognizing an object appearing in the image data. According to this configuration, when image data is exchanged between the client device and the data communication device and image recognition is performed as an inference task, the accuracy of the inference task performed by the inference model can be improved while reducing network traffic. can be guaranteed.

上記一側面に係るデータ通信装置において、前記画像データは、監視カメラにより得られてよく、前記画像データに写る対象物を認識することは、前記画像データにおけるシーンを識別することにより構成されてよい。当該構成によれば、監視カメラにより得られる画像データに写るシーンを識別する場面で、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証することができる。 In the data communication device according to the above aspect, the image data may be obtained by a surveillance camera, and recognizing an object appearing in the image data may be configured by identifying a scene in the image data. . According to this configuration, it is possible to guarantee the accuracy of the inference task performed by the inference model while reducing the traffic on the network when identifying the scene shown in the image data obtained by the surveillance camera.

上記一側面に係るデータ通信装置において、前記対象データは、音データにより構成されてよく、前記推論タスクは、前記音データに表れる特徴を推論することにより構成されてよい。当該構成によれば、クライアント装置及びデータ通信装置の間で音データをやり取りし、音に表れる特徴を推論することを推論タスクとして遂行する場面で、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証することができる。 In the data communication device according to the above aspect, the target data may be composed of sound data, and the inference task may be composed of inferring features appearing in the sound data. According to this configuration, when performing an inference task of exchanging sound data between the client device and the data communication device and inferring features appearing in the sound, the inference model is used to reduce network traffic. The accuracy of the inference task performed can be guaranteed.

上記一側面に係るデータ通信装置において、前記音データは、話者の音声を録音することにより得られてよく、前記音データに表れる特徴を推論することは、前記話者の前記音声を認識することにより構成されてよい。当該構成によれば、音声認識を行う場面で、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証することができる。 In the data communication device according to the above one aspect, the sound data may be obtained by recording the voice of a speaker, and inferring features appearing in the sound data may be performed by recognizing the voice of the speaker. It may be configured by According to this configuration, it is possible to guarantee the accuracy of the inference task performed by the inference model while reducing network traffic when speech recognition is performed.

上記一側面に係るデータ通信装置において、前記対象データは、センシングデータにより構成されてよく、前記推論タスクは、前記センシングデータに表れる特徴を推論することにより構成されてよい。当該構成によれば、クライアント装置及びデータ通信装置の間でセンシングデータをやり取りし、センシングデータに表れる特徴を推論することを推論タスクとして遂行する場面で、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証することができる。 In the data communication device according to the above aspect, the target data may be sensing data, and the inference task may be inferring features appearing in the sensing data. According to this configuration, when performing an inference task of exchanging sensing data between the client device and the data communication device and inferring features appearing in the sensing data, the inference model can be used while reducing network traffic. Accuracy of the inference tasks performed can be guaranteed.

また、本発明の形態は、上記データ通信装置に限られなくてもよい。本発明の一側面は、上記いずれかの形態に係るデータ通信装置に圧縮された対象データを送信するように構成されたクライアント装置であってもよい。 Further, the form of the present invention need not be limited to the data communication device described above. An aspect of the present invention may be a client device configured to transmit compressed target data to the data communication device according to any one of the above aspects.

例えば、本発明の一側面に係るクライアント装置は、対象データを取得するように構成されるデータ取得部と、取得された前記対象データを圧縮するように構成されるデータ圧縮部と、上記いずれかの形態に係るデータ通信装置に圧縮された前記対象データを送信するように構成されるデータ送信部と、を備える。前記データ圧縮部は、圧縮率を低くした上で前記対象データを再送する指示が前記データ通信装置で発生することに対応して、先の圧縮率よりも低い圧縮率で前記対象データを再度圧縮するように構成される。前記データ送信部は、前記対象データを再送する指示を受信したことに応じて、再度圧縮された前記対象データを前記データ通信装置に送信するように構成される。当該構成によれば、データ通信装置との間で、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証することができる。 For example, a client device according to an aspect of the present invention includes a data acquisition unit configured to acquire target data; a data compression unit configured to compress the acquired target data; a data transmission unit configured to transmit the compressed target data to the data communication device according to the aspect of The data compression unit compresses the target data again at a compression rate lower than the previous compression rate in response to the instruction to resend the target data after lowering the compression rate in the data communication device. configured to The data transmission unit is configured to transmit the recompressed target data to the data communication device in response to receiving an instruction to resend the target data. According to this configuration, the accuracy of the inference task performed by the inference model can be guaranteed while reducing network traffic with the data communication device.

また、上記一側面に係るクライアント装置において、前記データ圧縮部は、前記データ通信装置からの前記対象データを再送する指示を受信する前に、当該指示に備えて、先の圧縮率よりも低い圧縮率で前記対象データを再度圧縮する処理の実行を開始するように構成されてよい。当該構成によれば、再送指示を受信する前にデータの圧縮処理を予め実行することで、対象データを再送するまでにかかる時間を低減する(再送指示までに圧縮処理が完了している場合は遅延をなくす)ことができる。これにより、データ通信装置が圧縮された対象データを再度取得し、対象データに対する推論モデルによる推論タスクの遂行が再度実行されるまでにかかる時間を短縮することができる。なお、クライアント装置における、再送指示を受信する前に予めデータを圧縮する処理は、データ通信装置からの上記準備指示の有無に依らずに実行されてよい。 Further, in the client device according to the above aspect, before receiving an instruction to resend the target data from the data communication device, the data compression unit performs compression at a lower compression rate than a previous compression rate in preparation for the instruction. It may be configured to start executing a process of compressing the target data again at a rate of According to this configuration, by executing the data compression processing in advance before receiving the retransmission instruction, the time required to retransmit the target data is reduced (if the compression processing is completed by the retransmission instruction, delay). As a result, it is possible to shorten the time required for the data communication device to re-acquire the compressed target data and to perform the inference task for the target data by the inference model again. Note that the process of compressing data in advance before receiving a retransmission instruction in the client device may be executed regardless of the presence or absence of the preparation instruction from the data communication device.

また、上記各形態に係るデータ通信装置及びクライアント装置それぞれの別の態様として、本発明の一側面は、以上の各構成の全部又はその一部を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記憶した、コンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記憶媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、本発明の一側面は、上記いずれかの形態に係るデータ通信装置及びクライアント装置により構成される推定システムであってもよい。 Further, as another aspect of each of the data communication device and the client device according to each of the above aspects, one aspect of the present invention may be an information processing method that realizes all or part of each of the above configurations, It may be a program, or a storage medium that stores such a program and is readable by a computer, other device, machine, or the like. Here, a computer-readable storage medium is a medium that stores information such as a program by electrical, magnetic, optical, mechanical, or chemical action. Further, one aspect of the present invention may be an estimation system configured by the data communication device and the client device according to any one of the above aspects.

例えば、本発明の一側面に係る再送指示方法は、コンピュータが、圧縮された対象データをクライアント装置から受信するステップと、推論モデルを使用することで受信した前記対象データに対して推論タスクを遂行した結果を取得するステップと、前記推論モデルによる前記推論タスクの遂行結果の尤もらしさを算出するステップと、算出された尤もらしさが閾値未満である場合に、圧縮率を低くした上で前記対象データを再送させる指示を前記クライアント装置に対して送信するステップと、を実行する、情報処理方法である。 For example, a retransmission instruction method according to one aspect of the present invention includes the steps of a computer receiving compressed target data from a client device, and performing an inference task on the received target data using an inference model. calculating the likelihood of the performance result of the inference task by the inference model; and, if the calculated likelihood is less than a threshold, reduce the compression ratio and then compress the target data. and transmitting to the client device an instruction to resend the .

また、例えば、本発明の一側面に係る再送指示プログラムは、コンピュータに、圧縮された対象データをクライアント装置から受信するステップと、推論モデルを使用することで受信した前記対象データに対して推論タスクを遂行した結果を取得するステップと、前記推論モデルによる前記推論タスクの遂行結果の尤もらしさを算出するステップと、算出された尤もらしさが閾値未満である場合に、圧縮率を低くした上で前記対象データを再送させる指示を前記クライアント装置に対して送信するステップと、を実行させるための、プログラムである。 Also, for example, a retransmission instruction program according to one aspect of the present invention may provide a computer with a step of receiving compressed target data from a client device, and an inference task for the received target data by using an inference model. calculating the likelihood of the performance result of the inference task by the inference model; and if the calculated likelihood is less than a threshold, lowering the compression rate and then and sending an instruction to the client device to resend target data.

本発明によれば、ネットワークのトラヒックを低減しつつ、サーバ装置側において遂行される推論タスクの精度を保証することができる。 According to the present invention, it is possible to guarantee the accuracy of an inference task performed on the server device side while reducing network traffic.

図1は、エッジコンピューティングの構成の一例を模式的に示す。FIG. 1 schematically shows an example of the configuration of edge computing. 図2は、本発明が適用される場面の一例を模式的に示す。FIG. 2 schematically shows an example of a scene to which the present invention is applied. 図3は、実施の形態に係るサーバ装置(データ通信装置)のハードウェア構成の一例を模式的に示す。FIG. 3 schematically shows an example of a hardware configuration of a server device (data communication device) according to the embodiment. 図4は、実施の形態に係るクライアント装置のハードウェア構成の一例を模式的に示す。FIG. 4 schematically shows an example of the hardware configuration of the client device according to the embodiment. 図5は、実施の形態に係るサーバ装置(データ通信装置)のソフトウェア構成の一例を模式的に示す。FIG. 5 schematically shows an example of the software configuration of the server device (data communication device) according to the embodiment. 図6は、実施の形態に係るクライアント装置のソフトウェア構成の一例を模式的に示す。FIG. 6 schematically shows an example of the software configuration of the client device according to the embodiment. 図7は、実施の形態に係るサーバ装置(データ通信装置)の処理手順の一例を示すフローチャートである。7 is a flowchart illustrating an example of a processing procedure of the server device (data communication device) according to the embodiment; FIG. 図8は、実施の形態に係るクライアント装置の処理手順の一例を示すフローチャートである。8 is a flowchart illustrating an example of a processing procedure of the client device according to the embodiment; FIG. 図9は、本発明が適用される他の場面の一例を模式的に示す。FIG. 9 schematically shows an example of another scene to which the present invention is applied. 図10は、本発明が適用される他の場面の一例を模式的に示す。FIG. 10 schematically shows an example of another scene to which the present invention is applied. 図11は、本発明が適用される他の場面の一例を模式的に示す。FIG. 11 schematically shows an example of another scene to which the present invention is applied. 図12は、変形例に係るサーバ装置(データ通信装置)のソフトウェア構成の一例を模式的に示す。FIG. 12 schematically shows an example of a software configuration of a server device (data communication device) according to a modification. 図13は、変形例に係るデータ通信装置の構成の一例を模式的に示す。FIG. 13 schematically shows an example of the configuration of a data communication device according to a modification. 図14は、変形例に係る推論モデルの構成の一例を模式的に示す。FIG. 14 schematically shows an example of the configuration of an inference model according to the modification. 図15は、第1実験例に係る数値シミュレーションの構成を示す。FIG. 15 shows the configuration of the numerical simulation according to the first experimental example. 図16は、第1実験例に係るダウンサンプリングレートに応じたPSNRの平均値及び分散値のシミュレーション結果を示す。FIG. 16 shows simulation results of PSNR average values and variance values according to the downsampling rate according to the first experimental example. 図17は、第1実験例におけるTop-1及びTop-5の認識精度のシミュレーション結果を示す。FIG. 17 shows simulation results of the recognition accuracy of Top-1 and Top-5 in the first experimental example. 図18は、第1実験例におけるTop-1及びTop-5の認識誤り率のシミュレーション結果を示す。FIG. 18 shows simulation results of recognition error rates for Top-1 and Top-5 in the first experimental example. 図19Aは、第2実験例における実施例(Top-1)及び比較例の認識誤り率のシミュレーション結果を示す。FIG. 19A shows simulation results of the recognition error rate of the example (Top-1) and the comparative example in the second experimental example. 図19Bは、第2実験例における実施例(Top-5)及び比較例の認識誤り率のシミュレーション結果を示す。FIG. 19B shows simulation results of the recognition error rate of the example (Top-5) and the comparative example in the second experimental example. 図20Aは、第2実験例における実施例(Top-1)での画像の再送回数のシミュレーション結果を示す。FIG. 20A shows simulation results of the number of image retransmissions in Example (Top-1) of the second experimental example. 図20Bは、第2実験例における実施例(Top-5)での画像の再送回数のシミュレーション結果を示す。FIG. 20B shows simulation results of the number of image retransmissions in Example (Top-5) of the second experimental example. 図21は、第2実験例における実施例(Top-1、Top-5)及び比較例のダミートラヒックのスループットのシミュレーション結果を示す。FIG. 21 shows simulation results of the dummy traffic throughput of the example (Top-1, Top-5) and the comparative example in the second experimental example. 図22は、第2実験例における実施例(Top-1、Top-5)及び比較例のダミートラヒックの遅延のシミュレーション結果(累積度数分布)を示す。FIG. 22 shows simulation results (cumulative frequency distribution) of dummy traffic delays in the second experimental example (Top-1, Top-5) and the comparative example. 図23は、第2実験例における実施例(Top-1、Top-5)及び比較例の画像トラヒックの遅延のシミュレーション結果(累積度数分布)を示す。FIG. 23 shows simulation results (cumulative frequency distribution) of image traffic delays in the second experimental example (Top-1, Top-5) and the comparative example.

以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良及び変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。 Hereinafter, an embodiment (hereinafter also referred to as "this embodiment") according to one aspect of the present invention will be described based on the drawings. However, this embodiment described below is merely an example of the present invention in every respect. It goes without saying that various modifications and variations can be made without departing from the scope of the invention. That is, in implementing the present invention, a specific configuration according to the embodiment may be appropriately adopted. Although the data appearing in this embodiment are explained in terms of natural language, more specifically, they are specified in computer-recognizable pseudo-language, commands, parameters, machine language, and the like.

§1 適用例
図2は、本発明を適用した場面の一例を模式的に示す。図2に示されるとおり、本実施形態に係る通信システムは、ネットワーク4を介して接続されるサーバ装置1及びクライアント装置2により構成される。
§1 Application Example FIG. 2 schematically shows an example of a scene to which the present invention is applied. As shown in FIG. 2, the communication system according to this embodiment includes a server device 1 and a client device 2 that are connected via a network 4 .

本実施形態に係るサーバ装置1は、クライアント装置2からデータを受け取り、受け取ったデータに対して推論タスクを遂行するように構成されるコンピュータである。サーバ装置1は、データ通信装置の一例である。一方、本実施形態に係るクライアント装置2は、推論タスクの対象となるデータを取得し、取得されたデータを圧縮して、圧縮データをサーバ装置1に送信するように構成されるコンピュータである。 The server device 1 according to this embodiment is a computer configured to receive data from the client device 2 and perform an inference task on the received data. The server device 1 is an example of a data communication device. On the other hand, the client device 2 according to this embodiment is a computer configured to acquire data to be the target of an inference task, compress the acquired data, and transmit the compressed data to the server device 1 .

まず、クライアント装置2は、対象データ31を取得する。次に、クライアント装置2は、取得された対象データ31を圧縮する。これにより、クライアント装置2は、圧縮された対象データ33を生成する。なお、図では、圧縮された対象データを圧縮データと記載する。そして、クライアント装置2は、圧縮された対象データ33をサーバ装置1に送信する。 First, the client device 2 acquires the target data 31 . Next, the client device 2 compresses the acquired target data 31 . Thereby, the client device 2 generates the compressed target data 33 . In addition, in the figure, the compressed target data is described as compressed data. The client device 2 then transmits the compressed target data 33 to the server device 1 .

サーバ装置1は、圧縮された対象データ33をクライアント装置2から受信する。サーバ装置1は、推論モデル5を使用することで受信した対象データ33に対して推論タスクを遂行した結果を取得する。本実施形態では、サーバ装置1は、推論モデル5を保持している。サーバ装置1は、推論モデル5を使用して、圧縮された対象データ33に対して推論タスクを遂行する処理を実行することで、遂行結果(推論の結果)を取得する。 The server device 1 receives the compressed target data 33 from the client device 2 . The server device 1 uses the inference model 5 to acquire the result of performing the inference task on the received target data 33 . In this embodiment, the server device 1 holds an inference model 5 . The server device 1 uses the inference model 5 to execute processing for performing an inference task on the compressed target data 33, thereby obtaining an execution result (inference result).

サーバ装置1は、推論モデル5による推論タスクの遂行結果の尤もらしさを算出する。尤もらしさは、推論モデル5による推論タスクの遂行結果が確かであるか否か(すなわち、推論モデル5の推論結果に信頼性があるか否か)の程度を示すように適宜算出されてよい。サーバ装置1は、算出された尤もらしさが閾値未満である場合、先の圧縮率よりも圧縮率を低くした上で対象データを再送させる指示をクライアント装置2に対して送信する。 The server device 1 calculates the likelihood of the execution result of the inference task by the inference model 5 . The plausibility may be calculated as appropriate to indicate the degree of certainty of the performance result of the inference task by the inference model 5 (that is, whether or not the inference result of the inference model 5 is reliable). If the calculated likelihood is less than the threshold, the server device 1 lowers the compression rate from the previous compression rate and transmits to the client device 2 an instruction to resend the target data.

クライアント装置2は、圧縮率を低くした上で対象データを再送する指示がサーバ装置1で発生することに対応して、先の圧縮率(すなわち、サーバ装置1に先に送信した対象データ(この場合は、対象データ33)の圧縮率)よりも低い圧縮率で対象データ31を再度圧縮する。これにより、クライアント装置2は、先の圧縮率よりも低い圧縮率で圧縮された対象データ35を生成する。そして、クライアント装置2は、対象データを再送する指示を受信したことに応じて、再度圧縮された対象データ35をサーバ装置1に送信する。 In response to the server device 1 receiving an instruction to resend the target data after reducing the compression rate, the client device 2 responds to the previous compression rate (that is, the target data previously transmitted to the server device 1 (this In this case, the target data 31 is compressed again at a compression rate lower than the compression rate of the target data 33). As a result, the client device 2 generates the target data 35 compressed at a compression rate lower than the previous compression rate. Then, the client device 2 transmits the re-compressed target data 35 to the server device 1 in response to receiving the instruction to resend the target data.

サーバ装置1は、圧縮された対象データ35をクライアント装置2から受信し、推論モデル5を使用することで受信した対象データ35に対して推論タスクを遂行した結果を取得する。サーバ装置1は、圧縮された対象データ33と同様に、圧縮された対象データ35に対して、遂行結果の尤もらしさを算出する以降の処理を実行してもよい。 The server device 1 receives the compressed target data 35 from the client device 2 and obtains the result of performing the inference task on the received target data 35 by using the inference model 5 . The server device 1 may perform the processing subsequent to calculating the likelihood of the execution result for the compressed target data 35 in the same manner as for the compressed target data 33 .

以上のとおり、本実施形態では、サーバ装置1及びクライアント装置2の間で、圧縮された対象データ(33、35)をやり取りするようにすることで、ネットワーク4のトラヒックを低減することができる。加えて、サーバ装置1において、推論モデル5による推論タスクの遂行結果の尤もらしさを評価し、尤もらしさが閾値未満である場合に、圧縮率を低くした対象データ35を再送するようにする。これにより、圧縮率の低い対象データ35に対する推論モデル5による推論タスクの遂行を可能にし、推論結果の尤もらしさの向上を図ることができる。したがって、本実施形態によれば、ネットワーク4のトラヒックを低減しつつ、推論モデル5により遂行される推論タスクの精度を保証することができる。 As described above, in this embodiment, the traffic on the network 4 can be reduced by exchanging the compressed target data (33, 35) between the server device 1 and the client device 2. In addition, the server device 1 evaluates the likelihood of the performance result of the inference task by the inference model 5, and if the likelihood is less than the threshold, the target data 35 with a reduced compression rate is resent. This enables the inference model 5 to perform the inference task on the target data 35 with a low compression rate, and improves the plausibility of the inference result. Therefore, according to this embodiment, the accuracy of the inference task performed by the inference model 5 can be guaranteed while reducing the traffic on the network 4 .

なお、対象データ31は、推論タスクの対象となり得るものであれば、そのデータ種は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。対象データ31は、例えば、画像データ、音データ、数値データ、テキストデータ、その他センサにより得られるセンシングデータ等であってよい。一例では、対象データ31は、任意の対象をセンサにより観測することで得られるセンシングデータであってよい。センサは、例えば、画像センサ(カメラ)、赤外線センサ、音センサ(マイクロフォン)、超音波センサ、光センサ、圧力センサ、気圧センサ、温度センサ等であってよい。また、センサは、例えば、環境センサ、バイタルセンサ、医療検査装置、車載センサ、ホームセキュリティセンサ等であってよい。環境センサは、例えば、気圧計、温度計、湿度計、音圧計、音センサ、紫外線センサ、照度計、雨量計、ガスセンサ等であってよい。バイタルセンサは、例えば、血圧計、脈拍計、心拍計、心電計、筋電計、体温計、皮膚電気反応計、マイクロ波センサ、脳波計、脳磁計、活動量計、血糖値測定器、眼電位センサ、眼球運動計測器等であってよい。医療検査装置は、例えば、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等であってよい。車載センサは、例えば、画像センサ、Lidar(light detection and ranging)センサ、ミリ波レーダ、超音波センサ、加速度センサ等であってよい。ホームセキュリティセンサは、例えば、画像センサ、赤外線センサ、活性度(音声)センサ、ガス(CO2等)センサ、電流センサ、スマートメータ(家電、照明等の電力使用量を計測するセンサ)等であってよい。対象データ31は、例えば、画像データ及び音データを含む動画データのように、複数種類のデータを含むように構成されてよい。 Note that the data type of the target data 31 is not particularly limited as long as it can be the target of the inference task, and may be appropriately selected according to the embodiment. The target data 31 may be, for example, image data, sound data, numerical data, text data, sensing data obtained by other sensors, and the like. In one example, the target data 31 may be sensing data obtained by observing an arbitrary target with a sensor. The sensor may be, for example, an image sensor (camera), an infrared sensor, a sound sensor (microphone), an ultrasonic sensor, an optical sensor, a pressure sensor, an air pressure sensor, a temperature sensor, or the like. Also, the sensor may be, for example, an environmental sensor, a vital sensor, a medical examination device, an in-vehicle sensor, a home security sensor, or the like. Environmental sensors may be, for example, barometers, thermometers, hygrometers, sound pressure meters, sound sensors, ultraviolet sensors, illuminometers, rain gauges, gas sensors, and the like. Vital sensors include, for example, sphygmomanometers, pulse meters, heart rate meters, electrocardiographs, electromyographs, thermometers, skin electrometers, microwave sensors, electroencephalographs, magnetoencephalographs, activity meters, blood glucose meters, eyes It may be an electric potential sensor, an eye movement measuring instrument, or the like. The medical examination device may be, for example, a CT (Computed Tomography) device, an MRI (Magnetic Resonance Imaging) device, or the like. The in-vehicle sensor may be, for example, an image sensor, a lidar (light detection and ranging) sensor, a millimeter wave radar, an ultrasonic sensor, an acceleration sensor, or the like. Home security sensors include, for example, image sensors, infrared sensors, activity (voice) sensors, gas (CO2, etc.) sensors, current sensors, smart meters (sensors that measure power usage for home appliances, lighting, etc.), etc. good. The target data 31 may be configured to include multiple types of data, such as moving image data including image data and sound data.

推論タスクの内容は、実施の形態に応じて適宜決定されてよい。一例では、対象データ31は画像データにより構成されてよく、推論タスクは、画像データに写る対象物を認識することにより構成されてよい。他の一例では、対象データ31は音データにより構成されてよく、推論タスクは、音データに表れる特徴を推論することにより構成されてよい。更に他の一例では、対象データ31はセンシングデータにより構成されてよく、推論タスクは、センシングデータに表れる特徴を推論することにより構成されてよい。 The content of the inference task may be determined as appropriate according to the embodiment. In one example, the target data 31 may consist of image data, and the inference task may consist of recognizing objects appearing in the image data. In another example, the target data 31 may consist of sound data, and the inference task may consist of inferring features appearing in the sound data. In yet another example, the target data 31 may consist of sensing data, and the inference task may consist of inferring features appearing in the sensing data.

ネットワーク4の種類は、特に限定されなくてよく、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から実施の形態に応じて適宜選択されてよい。推論モデル5は、対象データに対する推論タスクを遂行する演算処理を実行可能に適宜構成されてよい。本実施形態の一例では、推論モデル5は、機械学習により生成された訓練済みの機械学習モデル(後述するニューラルネットワーク)により構成される。また、サーバ装置1及びクライアント装置2のうちの少なくとも一方は、複数台のコンピュータにより構成されてもよい。 The type of network 4 is not particularly limited, and may be appropriately selected from, for example, the Internet, wireless communication network, mobile communication network, telephone network, dedicated network, etc., according to the embodiment. The inference model 5 may be appropriately configured to be capable of executing computations that perform inference tasks on target data. In one example of the present embodiment, the inference model 5 is configured by a trained machine learning model (neural network described later) generated by machine learning. At least one of the server device 1 and the client device 2 may be composed of a plurality of computers.

§2 構成例
[ハードウェア構成]
<サーバ装置>
図3は、本実施形態に係るサーバ装置1のハードウェア構成の一例を模式的に例示する。図3に示されるとおり、本実施形態に係るサーバ装置1は、制御部11、記憶部12、通信インタフェース13、外部インタフェース14、入力装置15、出力装置16、及びドライブ17が電気的に接続されたコンピュータである。なお、図3では、通信インタフェース及び外部インタフェースを「通信I/F」及び「外部I/F」と記載している。
§2 Configuration example [Hardware configuration]
<Server device>
FIG. 3 schematically illustrates an example of the hardware configuration of the server device 1 according to this embodiment. As shown in FIG. 3, the server device 1 according to the present embodiment is electrically connected to a control unit 11, a storage unit 12, a communication interface 13, an external interface 14, an input device 15, an output device 16, and a drive 17. computer. Incidentally, in FIG. 3, the communication interface and the external interface are described as "communication I/F" and "external I/F".

制御部11は、ハードウェアプロセッサ(プロセッサリソース)であるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。記憶部12は、メモリ(メモリリソース)の一例であり、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。本実施形態では、記憶部12は、推論プログラム81、学習結果データ125等の各種情報を記憶する。 The control unit 11 includes a CPU (Central Processing Unit), which is a hardware processor (processor resource), RAM (Random Access Memory), ROM (Read Only Memory), etc., and executes information processing based on programs and various data. configured as The storage unit 12 is an example of memory (memory resource), and is configured by, for example, a hard disk drive, a solid state drive, or the like. In this embodiment, the storage unit 12 stores various information such as the inference program 81 and the learning result data 125 .

推論プログラム81は、推論モデル5を使用して、推論タスクを遂行する後述の情報処理(図7)をサーバ装置1に実行させるためのプログラムである。推論プログラム81は、当該情報処理の一連の命令を含む。推論プログラム81は、再送指示プログラムの一例である。学習結果データ125は、機械学習により生成された訓練済みの推論モデル5に関する情報を示す。詳細は後述する。 The inference program 81 is a program for causing the server device 1 to execute information processing (FIG. 7) for performing an inference task using the inference model 5, which will be described later. Inference program 81 includes a series of instructions for the information processing. Inference program 81 is an example of a resend instruction program. The learning result data 125 indicates information about the trained inference model 5 generated by machine learning. Details will be described later.

通信インタフェース13は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。サーバ装置1は、通信インタフェース13を利用して、他の情報処理装置との間で、ネットワークを介したデータ通信を実行することができる。外部インタフェース14は、例えば、USB(Universal Serial Bus)ポート、専用ポート等であり、外部装置と接続するためのインタフェースである。外部インタフェース14の種類及び数は任意に選択されてよい。 The communication interface 13 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. Server device 1 can use communication interface 13 to perform data communication with other information processing devices via a network. The external interface 14 is, for example, a USB (Universal Serial Bus) port, a dedicated port, or the like, and is an interface for connecting with an external device. The type and number of external interfaces 14 may be arbitrarily selected.

入力装置15は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置16は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。ユーザ等のオペレータは、入力装置15及び出力装置16を利用することで、サーバ装置1を操作することができる。 The input device 15 is, for example, a device for performing input such as a mouse and a keyboard. Also, the output device 16 is, for example, a device for outputting such as a display and a speaker. An operator such as a user can operate the server device 1 by using the input device 15 and the output device 16 .

ドライブ17は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体91に記憶されたプログラム等の各種情報を読み込むためのドライブ装置である。記憶媒体91は、コンピュータその他装置、機械等が、記憶されたプログラム等の各種情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。上記推論プログラム81及び学習結果データ125の少なくともいずれかは、記憶媒体91に記憶されていてもよい。サーバ装置1は、この記憶媒体91から、上記推論プログラム81及び学習結果データ125の少なくともいずれかを読み出してもよい。なお、図3では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限られなくてもよく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。ドライブ17の種類は、記憶媒体91の種類に応じて任意に選択されてよい。 The drive 17 is, for example, a CD drive, a DVD drive, or the like, and is a drive device for reading various information such as programs stored in the storage medium 91 . The storage medium 91 stores information such as programs by electrical, magnetic, optical, mechanical or chemical action so that computers, other devices, machines, etc. can read various information such as programs. It is a medium that accumulates by At least one of the inference program 81 and the learning result data 125 may be stored in the storage medium 91 . The server device 1 may read at least one of the inference program 81 and the learning result data 125 from the storage medium 91 . In FIG. 3, as an example of the storage medium 91, a disk-type storage medium such as a CD or DVD is illustrated. However, the type of storage medium 91 is not limited to the disk type, and may be other than the disk type. As a storage medium other than the disk type, for example, a semiconductor memory such as a flash memory can be cited. The type of drive 17 may be arbitrarily selected according to the type of storage medium 91 .

なお、サーバ装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)、DSP(digital signal processor)等で構成されてよい。記憶部12は、制御部11に含まれるRAM及びROMにより構成されてもよい。外部インタフェース14、入力装置15、出力装置16及びドライブ17の少なくともいずれかは省略されてもよい。サーバ装置1は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。サーバ装置1は、提供されるサービス専用に設計された情報処理装置、汎用のサーバ、PC(Personal Computer)等により構成されてよい。サーバ装置1は、例えば、エッジサーバ、クラウドサーバ等であってよい。 Regarding the specific hardware configuration of the server apparatus 1, it is possible to omit, replace, and add components as appropriate according to the embodiment. For example, control unit 11 may include multiple hardware processors. The hardware processor may comprise a microprocessor, a field-programmable gate array (FPGA), a digital signal processor (DSP), or the like. The storage unit 12 may be configured by RAM and ROM included in the control unit 11 . At least one of the external interface 14, the input device 15, the output device 16 and the drive 17 may be omitted. The server device 1 may be composed of a plurality of computers. In this case, the hardware configuration of each computer may or may not match. The server device 1 may be configured by an information processing device designed exclusively for the service provided, a general-purpose server, a PC (Personal Computer), or the like. The server device 1 may be, for example, an edge server, a cloud server, or the like.

<クライアント装置>
図4は、本実施形態に係るクライアント装置2のハードウェア構成の一例を模式的に例示する。図4に示されるとおり、本実施形態に係るクライアント装置2は、制御部21、記憶部22、通信インタフェース23、外部インタフェース24、入力装置25、出力装置26、及びドライブ27が電気的に接続されたコンピュータである。
<Client device>
FIG. 4 schematically illustrates an example of the hardware configuration of the client device 2 according to this embodiment. As shown in FIG. 4, the client device 2 according to the present embodiment is electrically connected to a control unit 21, a storage unit 22, a communication interface 23, an external interface 24, an input device 25, an output device 26, and a drive 27. computer.

クライアント装置2の制御部21~ドライブ27及び記憶媒体92はそれぞれ、上記サーバ装置1の制御部11~ドライブ17及び記憶媒体91それぞれと同様に構成されてよい。制御部21は、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部22は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。本実施形態では、記憶部22は、送信プログラム82、対象データ31等の各種情報を記憶する。 The control unit 21 to the drive 27 and the storage medium 92 of the client device 2 may be configured similarly to the control unit 11 to the drive 17 and the storage medium 91 of the server device 1, respectively. The control unit 21 includes a hardware processor such as a CPU, a RAM, and a ROM, and is configured to execute various types of information processing based on programs and data. The storage unit 22 is composed of, for example, a hard disk drive, a solid state drive, or the like. In this embodiment, the storage unit 22 stores various information such as the transmission program 82 and the target data 31 .

送信プログラム82は、圧縮された対象データ(33、35)の送信に関する後述の情報処理(図8)をクライアント装置2に実行させるためのプログラムである。送信プログラム82は、当該情報処理の一連の命令を含む。送信プログラム82及び対象データ31の少なくともいずれかは、記憶媒体92に記憶されていてもよい。クライアント装置2は、送信プログラム82及び対象データ31の少なくともいずれかを記憶媒体92から読み出してもよい。 The transmission program 82 is a program for causing the client device 2 to execute information processing (FIG. 8), which will be described later, regarding transmission of the compressed target data (33, 35). The transmission program 82 contains a series of instructions for the information processing. At least one of the transmission program 82 and the target data 31 may be stored in the storage medium 92 . The client device 2 may read at least one of the transmission program 82 and the target data 31 from the storage medium 92 .

一例では、クライアント装置2は、通信インタフェース23及び外部インタフェース24の少なくとも一方を介して、例えば、カメラ、マイクロフォン、その他センサ等のデバイス又は他のコンピュータと接続されてよい。クライアント装置2は、接続されたデバイス又は他のコンピュータから、対象データ31を取得してもよい。 In one example, the client device 2 may be connected via at least one of the communication interface 23 and the external interface 24 to devices such as cameras, microphones, other sensors, or other computers. The client device 2 may obtain target data 31 from a connected device or other computer.

なお、クライアント装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部21は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA、DSP等で構成されてよい。記憶部22は、制御部21に含まれるRAM及びROMにより構成されてもよい。外部インタフェース24、入力装置25、出力装置26、及びドライブ27の少なくともいずれかは省略されてもよい。クライアント装置2は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。クライアント装置2は、提供されるサービス専用に設計された情報処理装置の他、汎用のPC、産業用PC、タブレットPC、ユーザ端末(例えば、スマートフォン等)、PLC(programmable logic controller)、IoT装置等であってもよい。 Regarding the specific hardware configuration of the client device 2, it is possible to omit, replace, and add components as appropriate according to the embodiment. For example, the controller 21 may include multiple hardware processors. A hardware processor may comprise a microprocessor, FPGA, DSP, or the like. The storage unit 22 may be configured by RAM and ROM included in the control unit 21 . At least one of the external interface 24, the input device 25, the output device 26, and the drive 27 may be omitted. The client device 2 may be composed of multiple computers. In this case, the hardware configuration of each computer may or may not match. The client device 2 is an information processing device designed exclusively for the provided service, a general-purpose PC, an industrial PC, a tablet PC, a user terminal (for example, a smartphone), a PLC (programmable logic controller), an IoT device, etc. may be

[ソフトウェア構成]
<サーバ装置>
図5は、本実施形態に係るサーバ装置1のソフトウェア構成の一例を模式的に例示する。サーバ装置1の制御部11は、記憶部12に記憶された推論プログラム81をRAMに展開する。そして、制御部11は、RAMに展開された推論プログラム81に含まれる命令をCPUにより解釈及び実行して、各構成要素を制御する。これにより、図5に示されるとおり、本実施形態に係るサーバ装置1は、データ受信部111、結果取得部112、結果評価部113、再送指示部114、及び出力部115をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、サーバ装置1の各ソフトウェアモジュールは、制御部11(CPU)により実現される。
[Software configuration]
<Server device>
FIG. 5 schematically illustrates an example of the software configuration of the server device 1 according to this embodiment. The control unit 11 of the server device 1 expands the inference program 81 stored in the storage unit 12 to RAM. Then, the control unit 11 causes the CPU to interpret and execute instructions included in the inference program 81 developed in the RAM, and controls each component. Accordingly, as shown in FIG. 5, the server device 1 according to the present embodiment is a computer having a data receiving unit 111, a result acquiring unit 112, a result evaluating unit 113, a retransmission instructing unit 114, and an output unit 115 as software modules. works as That is, in this embodiment, each software module of the server device 1 is implemented by the control unit 11 (CPU).

データ受信部111は、圧縮された対象データ33をクライアント装置2から受信するように構成される。結果取得部112は、推論モデル5を使用することで受信した対象データ33に対して推論タスクを遂行した結果を取得するように構成される。本実施形態では、結果取得部112は、学習結果データ125を保持していることで、機械学習により生成された訓練済みの推論モデル5を備えており、推論部として動作するように構成される。すなわち、結果取得部112は、訓練済みの推論モデル5を使用して、圧縮された対象データ33に対して推論タスクを遂行する処理を実行することで、遂行結果(推論の結果)を取得するように構成される。 The data receiving unit 111 is configured to receive the compressed target data 33 from the client device 2 . The result acquisition unit 112 is configured to acquire a result of performing an inference task on the received target data 33 by using the inference model 5 . In the present embodiment, the result acquisition unit 112 has the trained inference model 5 generated by machine learning by holding the learning result data 125, and is configured to operate as an inference unit. . That is, the result acquisition unit 112 uses the trained inference model 5 to perform processing for performing an inference task on the compressed target data 33, thereby acquiring an execution result (inference result). configured as

結果評価部113は、推論モデル5による推論タスクの遂行結果の尤もらしさを算出するように構成される。再送指示部114は、算出された尤もらしさが閾値未満である場合に、先の圧縮率よりも圧縮率を低くした上で対象データを再送させる指示をクライアント装置2に対して送信するように構成される。本実施形態では、再送指示部114は、再送させる指示と共に、算出された尤もらしさに応じて圧縮率を低下させる程度を更に指示するように構成されてよい。再送指示に応じて、データ受信部111は、先の圧縮率よりも低い圧縮率で圧縮された対象データ35をクライアント装置2から受信するように構成される。結果取得部112は、推論モデル5を使用することで対象データ35に対して推論タスクを遂行した結果を取得するように構成される。結果評価部113は、圧縮された対象データ35に対する推論タスクの遂行結果の尤もらしさを算出するように構成されてよい。再送指示部114は、算出された尤もらしさが閾値未満である場合に、先の圧縮率よりも圧縮率を低くした上で対象データを再送させる指示をクライアント装置2に対して再度送信するように構成されてよい。これにより、サーバ装置1は、推論タスクの遂行結果の尤もらしさが閾値を超えるまで、圧縮された対象データの取得、及び推論モデル5による推論タスクの遂行を繰り返すように構成されてよい。出力部115は、推論タスクの遂行結果に関する情報を出力するように構成される。 The result evaluation unit 113 is configured to calculate the likelihood of the performance result of the inference task by the inference model 5 . The retransmission instruction unit 114 is configured to transmit an instruction to the client device 2 to retransmit the target data after lowering the compression rate than the previous compression rate when the calculated likelihood is less than the threshold. be done. In this embodiment, the retransmission instructing unit 114 may be configured to further instruct the extent to which the compression rate is lowered according to the calculated likelihood along with the retransmission instruction. In response to the retransmission instruction, the data receiving unit 111 is configured to receive from the client device 2 the target data 35 compressed at a compression rate lower than the previous compression rate. The result acquisition unit 112 is configured to acquire a result of performing an inference task on the target data 35 by using the inference model 5 . The result evaluation unit 113 may be configured to calculate the likelihood of performance results of the inference task on the compressed target data 35 . If the calculated likelihood is less than the threshold, the retransmission instruction unit 114 retransmits the instruction to the client device 2 to retransmit the target data with a lower compression rate than the previous compression rate. may be configured. Thereby, the server device 1 may be configured to repeatedly obtain compressed target data and perform the inference task by the inference model 5 until the likelihood of the performance result of the inference task exceeds the threshold. The output unit 115 is configured to output information about the performance result of the inference task.

(推論モデルの一例)
推論モデル5は、例えば、所定のアルゴリズム、所定の規則、関数式等により、対象データに対応する推論タスクを遂行する演算処理を実行可能に適宜構成されてよい。推論モデル5の出力は、推論タスクを遂行した結果を特定可能に適宜構成されてよい。本実施形態の一例では、推論モデル5は、機械学習により生成された訓練済みの機械学習モデルにより構成される。機械学習モデルは、機械学習により調整可能なパラメータを備える。機械学習モデルの構成及び種類はそれぞれ、実施の形態に応じて適宜選択されてよい。一例では、図5に示されるとおり、推論モデル5を構成する機械学習モデルには、ニューラルネットワークが用いられてよい。
(An example of an inference model)
The inference model 5 may be appropriately configured, for example, to be able to execute arithmetic processing for performing an inference task corresponding to target data, using a predetermined algorithm, predetermined rules, functional expressions, or the like. The output of the inference model 5 may be appropriately configured to identify the results of performing the inference task. In one example of this embodiment, the inference model 5 is configured by a trained machine learning model generated by machine learning. The machine learning model has parameters that are adjustable by machine learning. The configuration and type of the machine learning model may be appropriately selected according to the embodiment. In one example, a neural network may be used for the machine learning model that makes up the inference model 5, as shown in FIG.

図5の一例では、推論モデル5は、入力層51、1つ以上の中間(隠れ)層52、及び出力層53を備える。中間層52の数は、実施の形態に応じて適宜決定されてよい。中間層52は、省略されてもよい。推論モデル5を構成するニューラルネットワークの層の数は、実施の形態に応じて適宜決定されてよい。入力層51は、対象データを受け取り可能に適宜構成されてよい。出力層53は、推論結果に対応する値を出力するように適宜構成されてよい。入力層51は、対象データ以外の情報を受け取り可能に構成されてもよく、出力層53は、推論結果に対応する情報以外の情報を出力するように構成されてもよい。 In one example of FIG. 5 , the inference model 5 comprises an input layer 51 , one or more intermediate (hidden) layers 52 and an output layer 53 . The number of intermediate layers 52 may be appropriately determined according to the embodiment. Intermediate layer 52 may be omitted. The number of neural network layers forming the inference model 5 may be appropriately determined according to the embodiment. The input layer 51 may be suitably configured to receive target data. Output layer 53 may be suitably configured to output a value corresponding to the inference result. The input layer 51 may be configured to receive information other than the target data, and the output layer 53 may be configured to output information other than the information corresponding to the inference result.

各層51-53は、1又は複数のノード(ニューロン)を備える。各層51―53に含まれるノードの数は、特に限定されなくてよく、実施の形態に応じて適宜決定されてよい。各層51-53に含まれる各ノードは、隣接する層の全てのノードと結合されてよい。これにより、推論モデル5は、全結合型ニューラルネットワークにより構成されてよい。ただし、各ノードの結合関係は、このような例に限定されなくてよく、実施の形態に応じて適宜決定されてよい。例えば、各ノードは、隣接する層の特定のノードと接続されたり、隣接する層以外の層のノードと接続されたりしてもよい。 Each layer 51-53 comprises one or more nodes (neurons). The number of nodes included in each layer 51-53 may not be particularly limited, and may be determined as appropriate according to the embodiment. Each node contained in each layer 51-53 may be connected to all nodes in adjacent layers. As a result, the inference model 5 may be composed of a fully-connected neural network. However, the connection relationship of each node may not be limited to such an example, and may be determined as appropriate according to the embodiment. For example, each node may be connected to a specific node in an adjacent layer, or connected to a node in a layer other than the adjacent layer.

各層51-53の各結合には、重み(結合荷重)が設定される。各ノードには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ノードの出力が決定される。閾値は、活性化関数により表現されてもよい。この場合、各入力と各重みとの積の和を活性化関数に入力し、活性化関数の演算を実行することで、各ノードの出力が決定される。活性化関数の種類は任意に選択されてよい。各層51-53に含まれる各ノード間の結合の重み及び各ノードの閾値は、推論モデル5の演算処理に利用されるパラメータの一例である。 A weight (connection weight) is set for each connection of each layer 51-53. A threshold is set for each node, and basically the output of each node is determined depending on whether or not the sum of the products of each input and each weight exceeds the threshold. The threshold may be expressed by an activation function. In this case, the output of each node is determined by inputting the sum of the product of each input and each weight into the activation function and executing the operation of the activation function. The type of activation function may be chosen arbitrarily. The weight of the connection between nodes included in each layer 51 to 53 and the threshold value of each node are examples of parameters used in the calculation process of the inference model 5 .

機械学習では、推論モデル5のパラメータの値は、学習データ(例えば、訓練データ及び正解ラベルの組み合わせによりそれぞれ構成される複数の学習データセット)を使用して、所望の推論タスクを遂行する能力を獲得するように適宜調整される。一例では、機械学習は、各学習データセットについて、訓練データ(対象データと同種のデータ)を推論モデル5に入力することで推論モデル5から得られる推論タスクの遂行結果が対応する正解ラベルに適合するものとなるように推論モデル5を訓練する(パラメータの値を調整する)ことにより構成される。機械学習の方法には、機械学習モデルに応じて、例えば、誤差逆伝播法等の公知の方法が採用されてよい。 In machine learning, the parameter values of the inference model 5 determine its ability to perform a desired inference task using learning data (e.g., multiple learning data sets each composed of a combination of training data and correct labels). adjusted accordingly to obtain In one example, machine learning is performed by inputting training data (data of the same type as target data) into the inference model 5 for each learning data set so that the inference task performance results obtained from the inference model 5 match the corresponding correct labels. It is constructed by training the inference model 5 (adjusting the values of the parameters) so that As the machine learning method, for example, a known method such as error backpropagation may be adopted according to the machine learning model.

学習結果データ125は、訓練済みの推論モデル5を再生するための情報を含むように適宜構成されてよい。一例では、学習結果データ125は、上記機械学習の調整により得られた推論モデル5の各パラメータの値を示す情報を含んでよい。場合によって、学習結果データ125は、推論モデル5の構造を示す情報を更に含んでもよい。構造は、例えば、ニューラルネットワークにおける入力層から出力層までの層の数、各層の種類、各層に含まれるノードの数、隣接する層のノード同士の結合関係等により特定されてよい。機械学習モデルの構造が装置間で共通化される場合、推論モデル5の構造を示す情報は省略されてよい。 Learning result data 125 may be configured as appropriate to include information for reproducing trained inference model 5 . In one example, the learning result data 125 may include information indicating the value of each parameter of the inference model 5 obtained by adjusting the machine learning. Depending on the case, the learning result data 125 may further include information indicating the structure of the inference model 5 . The structure may be specified, for example, by the number of layers from the input layer to the output layer in the neural network, the type of each layer, the number of nodes included in each layer, the connection relationship between nodes in adjacent layers, and the like. If the structure of the machine learning model is shared between devices, the information indicating the structure of the inference model 5 may be omitted.

<クライアント装置>
図6は、本実施形態に係るクライアント装置2のソフトウェア構成の一例を模式的に例示する。クライアント装置2の制御部21は、記憶部22に記憶された送信プログラム82をRAMに展開する。そして、制御部21は、RAMに展開された送信プログラム82に含まれる命令をCPUにより解釈及び実行して、各構成要素を制御する。これにより、図6に示されるとおり、本実施形態に係るクライアント装置2は、データ取得部211、データ圧縮部212、及びデータ送信部213をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、クライアント装置2の各ソフトウェアモジュールも、サーバ装置1と同様に、制御部21(CPU)により実現される。
<Client device>
FIG. 6 schematically illustrates an example of the software configuration of the client device 2 according to this embodiment. The control unit 21 of the client device 2 expands the transmission program 82 stored in the storage unit 22 to RAM. Then, the control unit 21 causes the CPU to interpret and execute commands included in the transmission program 82 developed in the RAM, thereby controlling each component. As a result, as shown in FIG. 6, the client device 2 according to this embodiment operates as a computer having a data acquisition unit 211, a data compression unit 212, and a data transmission unit 213 as software modules. That is, in the present embodiment, each software module of the client device 2 is realized by the control unit 21 (CPU) as well as the server device 1 .

データ取得部211は、対象データ31を取得するように構成される。データ圧縮部212は、取得された対象データ31を圧縮することで、圧縮された対象データ33を生成するように構成される。データ送信部213は、サーバ装置1に圧縮された対象データ33を送信するように構成される。また、データ圧縮部212は、圧縮率を低くした上で対象データを再送する上記指示がサーバ装置1で発生することに対応して、先の圧縮率よりも低い圧縮率で対象データ31を再度圧縮することで、圧縮された対象データ35を生成するように構成される。データ送信部213は、対象データを再送する上記指示を受信したことに応じて、再度圧縮された対象データ35をサーバ装置1に送信するように構成される。 The data acquisition unit 211 is configured to acquire the target data 31 . The data compression unit 212 is configured to generate compressed target data 33 by compressing the acquired target data 31 . The data transmission unit 213 is configured to transmit the compressed target data 33 to the server device 1 . In addition, in response to the occurrence of the instruction to resend the target data after reducing the compression rate in the server device 1, the data compression unit 212 re-transmits the target data 31 at a compression rate lower than the previous compression rate. The compression is configured to generate compressed target data 35 . The data transmission unit 213 is configured to transmit the recompressed target data 35 to the server device 1 in response to receiving the instruction to resend the target data.

<その他>
サーバ装置1及びクライアント装置2の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、サーバ装置1及びクライアント装置2の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、上記ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。上記各モジュールは、ハードウェアモジュールとして実現されてもよい。また、サーバ装置1及びクライアント装置2それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
<Others>
Each software module of the server device 1 and the client device 2 will be described in detail in operation examples described later. In this embodiment, an example is described in which each software module of the server device 1 and the client device 2 is implemented by a general-purpose CPU. However, some or all of the software modules may be implemented by one or more dedicated processors. Each module described above may be implemented as a hardware module. Further, with regard to the software configurations of the server device 1 and the client device 2, software modules may be omitted, replaced, or added as appropriate according to the embodiment.

§3 動作例
[サーバ装置]
図7は、本実施形態に係るサーバ装置1による推論方法に関する処理手順の一例を示すフローチャートである。以下で説明するサーバ装置1の処理手順は、再送指示方法の一例である。ただし、以下で説明するサーバ装置1の処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
§3 Operation example [Server device]
FIG. 7 is a flow chart showing an example of a processing procedure regarding an inference method by the server device 1 according to this embodiment. The processing procedure of the server device 1 described below is an example of a retransmission instruction method. However, the processing procedure of the server apparatus 1 described below is merely an example, and each step may be changed as much as possible. Further, in the following processing procedures, steps may be omitted, replaced, or added as appropriate according to the embodiment.

(ステップS101及びステップS102)
ステップS101では、制御部11は、データ受信部111として動作し、圧縮された対象データ33をクライアント装置2からネットワーク4を介して受信する。圧縮された対象データ33を受信すると、制御部11は、次のステップS102に処理を進める。
(Step S101 and Step S102)
In step S<b>101 , the control unit 11 operates as the data receiving unit 111 and receives the compressed target data 33 from the client device 2 via the network 4 . Upon receiving the compressed target data 33, the control unit 11 advances the process to the next step S102.

ステップS102では、制御部11は、結果取得部112として動作し、推論モデル5を使用することで受信した対象データ33に対して推論タスクを遂行した結果を取得する。本実施形態では、制御部11は、学習結果データ125を参照し、訓練済みの推論モデル5の設定を行う。そして、制御部11は、圧縮された対象データ33を訓練済みの推論モデル5に入力し、訓練済みの推論モデル5の演算処理を実行する。上記一例では、制御部11は、訓練済みの推論モデル5の入力層51に圧縮された対象データ33を入力し、順伝播の演算処理を実行する。この演算処理の結果として、制御部11は、圧縮された対象データ33に対して推論タスクを遂行した結果を訓練済みの推論モデル5(上記一例では、出力層53)から取得する。推論タスクの遂行結果を取得すると、制御部11は、次のステップS103に処理を進める。 In step S<b>102 , the control unit 11 operates as the result acquisition unit 112 and acquires the result of executing the inference task on the received target data 33 by using the inference model 5 . In this embodiment, the control unit 11 refers to the learning result data 125 and sets the trained inference model 5 . Then, the control unit 11 inputs the compressed target data 33 to the trained inference model 5 and executes the arithmetic processing of the trained inference model 5 . In the above example, the control unit 11 inputs the compressed target data 33 to the input layer 51 of the trained inference model 5 and executes forward propagation arithmetic processing. As a result of this arithmetic processing, the control unit 11 acquires the result of performing the inference task on the compressed target data 33 from the trained inference model 5 (the output layer 53 in the example above). After acquiring the performance result of the inference task, the control unit 11 advances the process to the next step S103.

(ステップS103)
ステップS103では、制御部11は、結果評価部113として動作し、推論モデル5による推論タスクの遂行結果の尤もらしさを算出する。尤もらしさを評価する方法は、例えば、推論モデル5の構成、推論モデル5が推論結果を導出する過程等に応じて、適宜決定されてよい。
(Step S103)
In step S<b>103 , the control unit 11 operates as the result evaluation unit 113 and calculates the likelihood of the performance result of the inference task by the inference model 5 . A method for evaluating plausibility may be appropriately determined according to, for example, the configuration of the inference model 5, the process in which the inference model 5 derives an inference result, and the like.

本実施形態では、推論モデル5は、訓練済みの機械学習モデルにより構成されている。この場合、推論結果の尤もらしさが高いほど、推論モデル5は確定的な値を出力し、推論結果の尤もらしさが低いほど、推論モデル5は確定的ではない値を出力する傾向にある。具体例として、推論タスクがクラス識別であり、推論モデル5が各クラスに属する事後確率を出力するように構成されるケースを想定する。このケースにおいて、推論モデル5の出力が、ある1つのクラスに属する事後確率が1に近く、残りの他のクラスに属する事後確率が0に近い構成であるほど、推論モデル5による推論結果は確定的に定まり、尤もらしさが高いと評価可能である。反対に、推論モデル5の出力が、各クラスに属する事後確率が比較的に低い値で似通っている構成であるほど、推論モデル5による推論結果は確定的に定まらず、尤もらしさが低いと評価可能である。 In this embodiment, the inference model 5 is composed of a trained machine learning model. In this case, the higher the plausibility of the inference result, the more likely the inference model 5 outputs a definite value, and the lower the plausibility of the inference result, the more the inference model 5 tends to output a less definite value. As a specific example, assume the case where the inference task is class identification and the inference model 5 is configured to output the posterior probability of belonging to each class. In this case, the closer the posterior probability that the output of the inference model 5 belongs to one class is to 1 and the posterior probability that the other classes belong to the rest is closer to 0, the more certain the inference result by the inference model 5 is. It can be evaluated that the plausibility is determined and the likelihood is high. On the contrary, the more similar the output of the inference model 5 with the posterior probabilities belonging to each class is, the lower the plausibility of the inference result by the inference model 5 becomes. It is possible.

そこで、一例では、制御部11は、推論モデル5による推論タスクの遂行結果の不確定性に基づいて、尤もらしさを算出してもよい。不確定性は、推論結果が確定的に定まらない程度を示す指標である。不確定性は、曖昧性、エントロピー等の用語に読み替えられてよい。制御部11は、例えば、分散、尖度、平均情報量(情報エントロピー)等の計算方法により、推論結果の不確定性を評価することで、尤もらしさの値を算出してもよい。一例では、制御部11は、各クラスに属する事後確率の分散、尖度、及び平均情報量の少なくともいずれかを算出し、算出された値が大きいほど尤もらしさを高い値に算出し、算出された値が小さいほど尤もらしさを低い値に算出してもよい。なお、機械学習モデル以外のモデルであって、出力の傾向が上記と同様であるモデルを推論モデル5として採用する場合にも、制御部11は、同様の計算方法により、推論結果の尤もらしさを算出してもよい。これらの計算方法によれば、不確定性を適切に評価し、尤もらしさを適正に算出することができる。 Therefore, in one example, the control unit 11 may calculate the likelihood based on the uncertainty of the execution result of the inference task by the inference model 5 . Uncertainty is an index that indicates the extent to which the inference result is uncertain. Uncertainty may be translated into terms such as ambiguity and entropy. The control unit 11 may calculate the plausibility value by evaluating the uncertainty of the inference result, for example, using a calculation method such as variance, kurtosis, and average information amount (information entropy). In one example, the control unit 11 calculates at least one of the variance, the kurtosis, and the average amount of information of the posterior probability belonging to each class, and the larger the calculated value, the higher the likelihood. The smaller the value, the lower the likelihood may be calculated. Note that even when a model other than the machine learning model and having the same output tendency as the inference model 5 is adopted as the inference model 5, the control unit 11 uses the same calculation method to determine the likelihood of the inference result. can be calculated. According to these calculation methods, it is possible to appropriately evaluate the uncertainty and appropriately calculate the likelihood.

これにより、上記のケースにおいて、前者の場合に不確定性が低く、尤もらしさが高くなるように算出し、後者の場合に不確定性が高く、尤もらしさが低くなるように算出することができる。なお、上記のケースでは、識別対象が対象データに含まれていることが前提として与えられてよい。この場合、設定されるクラスは、識別対象に応じて与えられてよい。一方、そのような前提がない場合には、設定されるクラスは、識別対象が存在していないことに対応するクラスを含んでよい。これにより、対象データに識別対象が存在していないことと区別して、推論結果の尤もらしさを算出することができる。 As a result, in the above cases, the former case can be calculated so that the uncertainty is low and the plausibility is high, and the latter case can be calculated so that the uncertainty is high and the plausibility is low. . In the above case, it may be assumed that the identification target is included in the target data. In this case, the class to be set may be given according to the identification target. On the other hand, if there is no such premise, the class to be set may include a class corresponding to the non-existence of the identification object. As a result, it is possible to calculate the likelihood of the inference result by distinguishing it from the fact that the identification target does not exist in the target data.

不確定性に基づいて尤もらしさを算出する方法は、上記の方法に限られなくてよい。その他の方法として、上記のケースにおいて、確定的又は不確定な推論結果の事後確率分布を仮定し、仮定された事後確率分布と推論モデル5により推論結果として得られる事後確率の分布との間の差異に基づいて、推論結果の尤もらしさを算出してもよい。すなわち、不確定性を評価する指標として、仮定される事後確率分布と推論結果の事後確率分布との間の差異を用いてもよい。仮定する事後確率分布の一例として、不確定な推論結果の事後確率分布を一様分布と仮定してよい。すなわち、各クラスの事後確率がクラス数Cの逆数1/Cとなっている推論結果が最も不確定であると仮定してもよい。その他の一例として、機械学習に使用される学習データにおいて各クラスの頻度(例えば、対象のクラスを示す正解ラベルが関連付けられている訓練データの件数)に偏りがある場合、頻度の高いクラスほど識別されやすくなる。そのため、不確定な推論結果の事後確率分布を、学習データにおけるクラスの事前分布に仮定してもよい。この方法を採用する場合、制御部11は、分布間の差異を評価するために、ステップS102において取得された推論モデル5による推論結果(各クラスの事後確率の分布)と仮定した事後確率分布との間の距離を算出してよい。距離は、例えば、KLダイバージェンス、JSダイバージェンス等の指標により算出されてよい。不確定な事後確率分布を仮定した場合、制御部11は、算出される距離が小さいほど、不確定性が高く、尤もらしさを低い値に算出してよく、算出される距離が大きいほど、不確定性が低く、尤もらしさを高い値に算出してよい。反対に、確定的な事後確率分布を仮定した場合、制御部11は、算出される距離が小さいほど、不確定性が低く、尤もらしさを高い値に算出してよく、算出される距離が大きいほど、不確定性が高く、尤もらしさを低い値に算出してよい。 The method of calculating likelihood based on uncertainty need not be limited to the above method. As another method, in the above case, assuming a posterior probability distribution of deterministic or indeterminate inference results, Based on the difference, the plausibility of the inference result may be calculated. That is, the difference between the assumed posterior probability distribution and the posterior probability distribution of the inference result may be used as an index for evaluating uncertainty. As an example of the assumed posterior probability distribution, the posterior probability distribution of uncertain inference results may be assumed to be a uniform distribution. That is, it may be assumed that the inference result in which the posterior probability of each class is the reciprocal of the number of classes C, 1/C, is the most uncertain. As another example, if there is a bias in the frequency of each class in the learning data used for machine learning (for example, the number of training data associated with the correct label indicating the target class), the class with the higher frequency is identified. easier to be Therefore, the posterior probability distribution of uncertain inference results may be assumed as the prior distribution of classes in the learning data. When adopting this method, in order to evaluate the difference between the distributions, the control unit 11 uses the inference result (the distribution of the posterior probability of each class) obtained by the inference model 5 in step S102 and the assumed posterior probability distribution. You may calculate the distance between The distance may be calculated by an index such as KL divergence, JS divergence, or the like. When an uncertain posterior probability distribution is assumed, the smaller the calculated distance is, the higher the uncertainty is, and the control unit 11 may calculate the likelihood to be a lower value. The certainty is low, and the likelihood may be calculated as a high value. Conversely, when a deterministic posterior probability distribution is assumed, the smaller the calculated distance is, the lower the uncertainty is, and the higher the likelihood may be calculated, the larger the calculated distance is. The higher the uncertainty, the lower the likelihood may be calculated.

また、不確定性を評価するその他の方法として、複数の推論モデル5が用意されていてもよい。この場合、各推論モデル5は、例えば、採用される機械学習モデルが異なる、機械学習モデルの少なくとも一部の構造が異なる、機械学習モデルに採用する少なくとも一部のパラメータ構成が異なる、少なくとも一部が異なる学習データにより機械学習が行われる、機械学習において採用される学習データの順番が異なる等により、他の推論モデル5との間で異なる属性を有するように構成されてよい。制御部11は、上記ステップS102において、各推論モデル5による対象データ33に対する推論結果を取得してもよい。本ステップS103では、制御部11は、推論モデル5の推論結果の不確定性として、得られた各推論モデル5の推論結果の不一致度を算出してよい。制御部11は、この不一致度が大きいほど尤もらしさを低い値に算出し、不一致度が小さいほど尤もらしさを高い値に算出してよい。この方法は、推論タスクの種類に依らずに採用されてよい。機械学習モデル以外のモデルを採用する場合にも同様に、異なる属性を有する複数の推論モデル5を用意し、各推論モデル5の推論結果の不一致度に基づいて尤もらしさを算出してもよい。 A plurality of inference models 5 may be prepared as another method of evaluating uncertainty. In this case, each inference model 5 is, for example, a different machine learning model to be adopted, a different structure of at least a part of the machine learning model, a different parameter configuration of at least a part of the machine learning model, at least a part may be configured to have different attributes from the other inference model 5 because machine learning is performed using different learning data, the order of learning data adopted in machine learning is different, or the like. The control unit 11 may acquire an inference result for the target data 33 by each inference model 5 in step S102. In step S<b>103 , the control unit 11 may calculate the degree of disagreement between the obtained inference results of the inference models 5 as the uncertainty of the inference results of the inference model 5 . The control unit 11 may calculate a lower value of likelihood as the degree of mismatch increases, and a higher value of likelihood as the degree of mismatch decreases. This method may be adopted regardless of the type of inference task. Similarly, when using a model other than the machine learning model, a plurality of inference models 5 having different attributes may be prepared, and the likelihood may be calculated based on the degree of disagreement between the inference results of each inference model 5.

更に、不確定性を評価するその他の方法として、推論モデル5のパラメータは、確率分布で仮定されてよい(例えば、参考文献:「Yarin Gal, "Uncertainty in Deep Learning", [online], [令和3年2月19日検索],インターネット<URL: https://www.cs.ox.ac.uk/people/yarin.gal/website/thesis/thesis.pdf>」)。この場合、学習段階において、推論モデル5の各パラメータは、任意の確率分布(例えば、ガウス分布)でモデリングされてよい。機械学習では、学習データを用いて、推論モデル5を適宜訓練してよい。推論処理の際には、訓練により得られた各パラメータの確率分布から各パラメータの値をサンプリングして、固定値の各パラメータにより構成される複数の推論モデル5が用意されてよい。その後は、上記複数の推論モデル5を用意する方法と同様に、上記ステップS102において、制御部11は、各推論モデル5による対象データ33に対する推論結果を取得してもよい。本ステップS103では、制御部11は、推論モデル5の推論結果の不確定性として、得られた各推論モデル5の推論結果の不一致度を算出してよい。制御部11は、この不一致度が大きいほど尤もらしさを低い値に算出し、不一致度が小さいほど尤もらしさを高い値に算出してよい。この方法は、推論タスクの種類に依らずに採用されてよい。この方法を採用する場合、推論モデル5には、ベイジアンニューラルネットワークが用いられてよい。 Furthermore, as another method of evaluating uncertainty, the parameters of the inference model 5 may be assumed with probability distributions (see, for example, Yarin Gal, "Uncertainty in Deep Learning", [online], [Order Retrieved on February 19, 1998], Internet <URL: https://www.cs.ox.ac.uk/people/yarin.gal/website/thesis/thesis.pdf>”). In this case, in the learning stage, each parameter of the inference model 5 may be modeled with an arbitrary probability distribution (eg, Gaussian distribution). In machine learning, the learning data may be used to train the inference model 5 accordingly. During inference processing, a plurality of inference models 5 composed of fixed-value parameters may be prepared by sampling the value of each parameter from the probability distribution of each parameter obtained by training. Thereafter, similarly to the method of preparing the plurality of inference models 5, the control unit 11 may obtain the inference result for the target data 33 by each inference model 5 in step S102. In step S<b>103 , the control unit 11 may calculate the degree of disagreement between the obtained inference results of the inference models 5 as the uncertainty of the inference results of the inference model 5 . The control unit 11 may calculate a lower value of likelihood as the degree of mismatch increases, and a higher value of likelihood as the degree of mismatch decreases. This method may be adopted regardless of the type of inference task. When adopting this method, the inference model 5 may use a Bayesian neural network.

推論結果の尤もらしさを算出すると、制御部11は、次のステップS104に処理を進める。 After calculating the likelihood of the inference result, the control unit 11 proceeds to the next step S104.

(ステップS104)
ステップS104では、制御部11は、ステップS103の処理により算出された尤もらしさの値に応じて、処理の分岐先を決定する。算出された尤もらしさが閾値未満である場合、制御部11は、ステップS105に処理を進める。一方、尤もらしさが閾値を超える場合、制御部11は、ステップS106に処理を進める。尤もらしさが閾値と等しい場合には、処理の分岐先は、いずれであってもよい。閾値は、例えば、オペレータの指定、プログラム内の設定値等の任意の方法で与えられてよい。
(Step S104)
In step S104, the control unit 11 determines a branch destination of the process according to the likelihood value calculated in the process of step S103. When the calculated likelihood is less than the threshold, the control unit 11 advances the process to step S105. On the other hand, when the likelihood exceeds the threshold, the control unit 11 advances the process to step S106. If the likelihood is equal to the threshold, the processing may branch to any destination. The threshold value may be given by any method such as operator designation, setting value within a program, or the like.

なお、推論タスクがクラス識別である上記ケースの場面において、対象のクラスに属すると判定するための確定的な事後確率の値(判定閾値)がクラス毎に異なる場合がある。例えば、第1クラスについては、事後確率が0.9以上でなければ確定的に属すると判定しないのに対して、第2クラスについては、事後確率が0.6以上であれば確定的に属すると判定するような場合である。これに対応するため、閾値は、クラス毎に可変に設定されてよい。この場合、一例では、上記尤もらしさは、クラス毎に算出されてよい。制御部11は、尤もらしさと閾値とをクラス毎に比較してもよい。他の一例では、上記尤もらしさは、推論結果全体に対応して算出されてよい。制御部11は、算出された尤もらしさと属する可能性の高いクラス(例えば、単純に事後確率が最も高いクラス、各事後確率が判定閾値よりも低い場合に、判定閾値に最も近い事後確率を有するクラス、等)の閾値とを比較してもよい。推論タスクが回帰の場合も同様に、複数の閾値(例えば、値域毎の閾値)が設定されてもよいし、或いは一つの閾値が設定されてもよい。 In the above case where the inference task is class identification, the deterministic posterior probability value (determination threshold) for determining that an object belongs to the target class may differ from class to class. For example, for the first class, if the posterior probability is 0.9 or more, it is not determined to belong deterministically, whereas for the second class, if the posterior probability is 0.6 or more, it definitely belongs This is a case where it is determined that To accommodate this, the threshold may be variably set for each class. In this case, in one example, the likelihood may be calculated for each class. The control unit 11 may compare the likelihood and the threshold for each class. In another example, the likelihood may be calculated for the entire inference result. The control unit 11 determines the calculated plausibility and the class that is likely to belong (for example, the class that simply has the highest posterior probability, and if each posterior probability is lower than the determination threshold, the posterior probability that is closest to the determination threshold. class, etc.). Similarly, when the inference task is regression, multiple thresholds (for example, thresholds for each range) may be set, or a single threshold may be set.

また、尤もらしさとその値との関係は、実施の形態に応じて適宜決定されてよい。尤もらしさが高い状態を大きな値で表現する場合、尤もらしさを高い値に評価することは、尤もらしさを大きな値に算出することに対応し、尤もらしさを低い値に評価することは、小さい値に算出することに対応する。この場合、算出された尤もらしさが閾値未満であることは、尤もらしさを示す値が閾値未満であることに対応する。一方、尤もらしさが高い状態を小さな値で表現する場合、尤もらしさを高い値に評価することは、尤もらしさを小さな値に算出することに対応し、尤もらしさを低い値に評価することは、尤もらしさを大きな値に算出することに対応する。この場合、算出された尤もらしさが閾値未満であることは、尤もらしさを示す値が閾値を超えていることに対応する。 Also, the relationship between the likelihood and its value may be appropriately determined according to the embodiment. When a state with high plausibility is represented by a large value, evaluating the plausibility to a high value corresponds to calculating the plausibility to a large value, and evaluating the plausibility to a low value corresponds to calculating a small value. corresponds to calculating In this case, the fact that the calculated likelihood is less than the threshold corresponds to the fact that the value indicating likelihood is less than the threshold. On the other hand, when a state with high plausibility is represented by a small value, evaluating the plausibility to a high value corresponds to calculating the plausibility to a small value, and evaluating the plausibility to a low value corresponds to This corresponds to calculating the likelihood as a large value. In this case, the fact that the calculated likelihood is less than the threshold corresponds to the fact that the value indicating likelihood exceeds the threshold.

(ステップS105)
ステップS105では、制御部11は、再送指示部114として動作し、先の圧縮率よりも圧縮率を低くした上で対象データを再送させる指示をクライアント装置2に対して送信する。
(Step S105)
In step S105, the control unit 11 operates as the retransmission instruction unit 114, and transmits an instruction to the client device 2 to retransmit the target data with a lower compression rate than the previous compression rate.

このとき、制御部11は、再送させる指示と共に、算出された尤もらしさに応じて圧縮率を低下させる程度を更に指示してもよい。圧縮率を低下させる程度を指示することは、圧縮率の低下量を指示することにより構成されてもよいし、或いは、低下させた後の圧縮率を直接的に指示することにより構成されてよい。基本的には、制御部11は、尤もらしさが低いほど圧縮率を低下させる程度を大きくし、尤もらしさが高いほど圧縮率を低下させる程度を小さくするようにクライアント装置2に対して指示してよい。圧縮率を低下させる程度は、段階的に離散値により規定されてもよいし、或いは連続値により規定されてもよい。 At this time, the control unit 11 may further instruct the extent to which the compression rate is to be lowered according to the calculated likelihood along with the instruction to retransmit. Instructing the degree to which the compression ratio is to be reduced may be constituted by instructing the amount of reduction in the compression ratio, or may be constituted by directly instructing the compression ratio after the reduction. . Basically, the control unit 11 instructs the client device 2 to increase the degree of reduction in the compression rate as the plausibility is low, and to decrease the degree of reduction in the compression rate as the plausibility is high. good. The extent to which the compression ratio is lowered may be defined stepwise by discrete values or may be defined by continuous values.

一例では、尤もらしさと圧縮率を低下させる程度との対応関係が規則により規定されてよい。この場合、制御部11は、当該規則に従って、ステップS103で算出された尤もらしさから圧縮率を低下させる程度を決定してもよい。そして、制御部11は、決定した圧縮率を低下させる程度をクライアント装置2に通知してもよい。或いは、制御部11は、尤もらしさの値をクライアント装置2に通知し、規則に従って圧縮率を低下させる程度を決定する処理をクライアント装置2に実行させてもよい。なお、推論モデル5及びテスト用の対象データを用いて、推論モデル5による推論タスク遂行の尤もらしさと対象データの圧縮率との対応関係が予め確認されていてよい。その確認の結果に基づいて、当該規則は作成されてよい。 In one example, a rule may define a correspondence relationship between the likelihood and the extent to which the compression ratio is lowered. In this case, the control unit 11 may determine the extent to which the compression rate is lowered from the likelihood calculated in step S103 according to the rule. Then, the control unit 11 may notify the client device 2 of the extent to which the determined compression rate is lowered. Alternatively, the control unit 11 may notify the client device 2 of the likelihood value, and cause the client device 2 to execute the process of determining the extent to which the compression rate is lowered according to a rule. Note that, using the inference model 5 and test target data, the correspondence relationship between the likelihood of the inference task execution by the inference model 5 and the compression rate of the target data may be confirmed in advance. Based on the results of that verification, the rules may be created.

ただし、圧縮率を低下させる程度を指定する方法は、このような例に限定されなくてよい。他の一例では、圧縮率を低下させる程度は、尤もらしさに依らずに決定されてよい(例えば、一定値)。この場合、圧縮率を低下させる程度は、例えば、オペレータの指示、プログラム内の設定値等により予め規定されてよく、サーバ装置1からクライアント装置2への圧縮率を低下させる程度の指示は省略されてよい。 However, the method of designating the extent to which the compression ratio is lowered need not be limited to such an example. In another example, the extent to which the compression ratio is reduced may be determined without depending on likelihood (eg, a constant value). In this case, the extent to which the compression rate is to be lowered may be specified in advance by, for example, an operator's instruction, a set value in the program, etc., and the instruction of the extent to which the compression rate is to be lowered from the server device 1 to the client device 2 is omitted. you can

クライアント装置2に対して再送指示を送信すると、制御部11は、ステップS101に処理を戻し、一連の処理を繰り返し実行する。クライアント装置2が再送指示に対応したことに応じて、ステップS101では、制御部11は、データ受信部111として動作し、先の圧縮率よりも低い圧縮率で圧縮された対象データ35をクライアント装置2から受信する。ステップS102では、制御部11は、結果取得部112として動作し、推論モデル5を使用することで対象データ35に対して推論タスクを遂行した結果を取得する。ステップS103では、制御部11は、圧縮された対象データ35に対する推論タスクの遂行結果の尤もらしさを算出する。ステップS104では、制御部11は、算出された尤もらしさの値に応じて、処理の分岐先を決定する。これにより、制御部11は、推論タスクの遂行結果の尤もらしさが閾値を超える(又は圧縮率を低下させられなくなる)まで、ステップS101-ステップS105の処理を繰り返し実行するように構成されてよい。 After transmitting the retransmission instruction to the client device 2, the control unit 11 returns the process to step S101 and repeats the series of processes. In response to the client device 2 responding to the retransmission instruction, in step S101, the control unit 11 operates as the data receiving unit 111, and transmits the target data 35 compressed at a compression rate lower than the previous compression rate to the client device. Receive from 2. In step S<b>102 , the control unit 11 operates as the result acquisition unit 112 and acquires the result of performing the inference task on the target data 35 by using the inference model 5 . In step S<b>103 , the control unit 11 calculates the likelihood of the execution result of the inference task for the compressed target data 35 . In step S104, the control unit 11 determines a branch destination of the process according to the calculated likelihood value. Thereby, the control unit 11 may be configured to repeatedly execute the processing of steps S101 to S105 until the likelihood of the performance result of the inference task exceeds the threshold (or the compression ratio cannot be lowered).

ただし、サーバ装置1の処理手順は、このような例に限定されなくてよい。他の一例では、制御部11は、ステップS105の処理を実行した後の繰り返し処理において、ステップS103及びステップS104の処理を省略してもよい。この場合、制御部11は、ステップS102の処理を実行することで、圧縮された対象データ35に対する推論タスクの遂行結果を取得した後、ステップS106に処理を進めてもよい。これにより、制御部11は、クライアント装置2に再送指示を1回限りで送信するように構成されてもよい。 However, the processing procedure of the server device 1 need not be limited to such an example. As another example, the control unit 11 may omit the processes of steps S103 and S104 in the repeated process after executing the process of step S105. In this case, the control unit 11 may proceed to step S106 after acquiring the performance result of the inference task for the compressed target data 35 by executing the process of step S102. Thereby, the control unit 11 may be configured to transmit the retransmission instruction to the client device 2 only once.

(ステップS106)
ステップS106では、制御部11は、出力部115として動作し、ステップS102で得られた推論タスクの遂行結果(推論結果)に関する情報を出力する。
(Step S106)
In step S106, the control unit 11 operates as the output unit 115 and outputs information about the performance result (inference result) of the inference task obtained in step S102.

出力する情報の内容は、実施の形態に応じて適宜決定されてよい。一例では、制御部11は、ステップS102により得られた推論結果をそのまま出力してもよい。他の一例では、制御部11は、得られた推論結果に基づいて、任意の情報処理を実行してもよい。そして、制御部11は、その情報処理を実行した結果を、推論結果に関する情報として出力してもよい。この情報処理を実行した結果の出力には、推論結果に応じて制御対象装置の動作を制御することが含まれてよい。 The content of the information to be output may be appropriately determined according to the embodiment. In one example, the control unit 11 may directly output the inference result obtained in step S102. In another example, the control unit 11 may execute arbitrary information processing based on the obtained inference result. Then, the control unit 11 may output the result of executing the information processing as information about the inference result. The output of the result of executing this information processing may include controlling the operation of the controlled device according to the inference result.

情報の出力先も同様に、実施の形態に応じて適宜決定されてよい。一例では、情報の出力先は、出力装置16、他のコンピュータの出力装置、制御対象装置等であってよい。他の一例では、制御部11は、推論結果に関する情報をクライアント装置2に送信してもよい。クライアント装置2は、受信した情報をそのまま出力装置26に表示してもよい。また、クライアント装置2は、受信した情報に基づいて任意の情報処理を実行し、その情報処理を実行した結果を出力してもよい。 Similarly, the information output destination may be appropriately determined according to the embodiment. In one example, the output destination of information may be the output device 16, an output device of another computer, a device to be controlled, or the like. As another example, the control unit 11 may transmit information about the inference result to the client device 2 . The client device 2 may display the received information on the output device 26 as it is. Further, the client device 2 may execute arbitrary information processing based on the received information and output the result of executing the information processing.

ステップS104の分岐処理による繰り返しによって、圧縮された対象データ(33、35)に対して推論タスクが複数回遂行されている場合、一例では、制御部11は、全ての推論結果を出力してもよい。他の一例では、制御部11は、一部の推論結果(例えば、尤もらしさが最も高い推論結果)のみを出力してもよい。 When the inference task is performed multiple times on the compressed target data (33, 35) by repeating the branching process in step S104, in one example, the control unit 11 outputs all the inference results. good. As another example, the control unit 11 may output only a part of the inference results (for example, the inference result with the highest likelihood).

推論タスクの遂行結果に関する情報の出力が完了すると、制御部11は、本動作例に係るサーバ装置1の処理手順を終了する。なお、制御部11は、クライアント装置2から対象データ33を受信する度に、ステップS101-ステップS106の一連の情報処理を実行してもよい。 When the output of the information about the performance result of the inference task is completed, the control unit 11 terminates the processing procedure of the server device 1 according to this operation example. Note that the control unit 11 may execute a series of information processing from step S101 to step S106 each time the target data 33 is received from the client device 2 .

[クライアント装置]
図8は、本実施形態に係るクライアント装置2の処理手順の一例を示すフローチャートである。以下で説明するクライアント装置2の処理手順は、データ送信方法の一例である。ただし、以下で説明するクライアント装置2の処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
[Client device]
FIG. 8 is a flow chart showing an example of the processing procedure of the client device 2 according to this embodiment. The processing procedure of the client device 2 described below is an example of the data transmission method. However, the processing procedure of the client device 2 described below is merely an example, and each step may be changed as much as possible. Further, in the following processing procedures, steps may be omitted, replaced, or added as appropriate according to the embodiment.

(ステップS201)
ステップS201では、制御部21は、データ取得部211として動作し、対象データ31を取得する。
(Step S201)
In step S<b>201 , the control unit 21 operates as the data acquisition unit 211 and acquires the target data 31 .

対象データ31は、推論タスクの遂行対象となる所定種類のデータのサンプルである。対象データ31を取得する方法は、データの種類に応じて適宜決定されてよい。一例として、推論対象をセンサ(例えば、カメラ、マイクロフォン、その他センサ)により観測することで、対象データ31が取得されてよい。また、対象データ31を取得する経路は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。一例として、クライアント装置2がセンサ等のデバイスに直接的に接続される場合、制御部21は、当該デバイスから対象データ31を直接的に取得してもよい。他の一例では、制御部21は、他のコンピュータ、記憶媒体92等を介して、対象データ31を取得してもよい。対象データ31を取得すると、制御部21は、次のステップS202に処理を進める。 Target data 31 is a sample of a given type of data on which an inference task is performed. A method for acquiring the target data 31 may be appropriately determined according to the type of data. As an example, the target data 31 may be obtained by observing the inference target with a sensor (eg, camera, microphone, or other sensor). Also, the route for acquiring the target data 31 may not be particularly limited, and may be appropriately selected according to the embodiment. As an example, when the client device 2 is directly connected to a device such as a sensor, the control unit 21 may directly acquire the target data 31 from the device. As another example, the control unit 21 may acquire the target data 31 via another computer, the storage medium 92, or the like. After obtaining the target data 31, the control unit 21 advances the process to the next step S202.

(ステップS202)
ステップS202では、制御部21は、データ圧縮部212として動作し、取得された対象データ31を圧縮することで、圧縮された対象データ33を生成する。
(Step S202)
In step S<b>202 , the control unit 21 operates as the data compression unit 212 and compresses the acquired target data 31 to generate the compressed target data 33 .

圧縮率を決定する方法は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。圧縮率は、所定値に予め設定されていてよい。或いは、圧縮率は、任意の指標に従って決定されてもよい。指標の一例として、圧縮率は、PSNR(Peak signal-to-noise ratio:ピーク信号対雑音比)に基づいて決定されてよい。この場合、PSNRの基準値が予め設定されてよい。制御部21は、対象データ31を圧縮することで、圧縮された対象データ33を生成する。制御部21は、圧縮された対象データ33のPSNRを算出し、算出されたPSNRの値が基準値を満たすか否かを評価する。制御部21は、例えば、圧縮された対象データ33の生成、及びPSNRの評価を繰り返すことで、基準値を満たす圧縮された対象データ33を生成してもよい。 A method for determining the compression rate may not be particularly limited, and may be appropriately selected according to the embodiment. The compression rate may be preset to a predetermined value. Alternatively, the compression ratio may be determined according to any index. As an example of the index, the compression rate may be determined based on PSNR (Peak signal-to-noise ratio). In this case, a PSNR reference value may be set in advance. The control unit 21 generates compressed target data 33 by compressing the target data 31 . The control unit 21 calculates the PSNR of the compressed target data 33 and evaluates whether the calculated PSNR value satisfies the reference value. The control unit 21 may generate the compressed target data 33 that satisfies the reference value, for example, by repeating generation of the compressed target data 33 and PSNR evaluation.

指標の他の一例として、圧縮率は、通信状況に応じて決定されてもよい。この場合、制御部21は、サーバ装置1との間のネットワーク4のトラヒックの混雑度を測定する。混雑度を測定する方法には、任意の方法が採用されてよい。例えば、制御部21は、混雑度を評価する指標として、pingコマンドによりサーバ装置1との間の応答速度を測定してもよい。制御部21は、応答速度が速いほど混雑度が低く、応答速度が遅いほど混雑度が高いと評価することができる。その他、例えば、パケットの廃棄量等のモニタを行うためのSNMP(Simple Network Management Protocol)による方法が採用されてよい。この場合、制御部21は、SNMPによるモニタの結果に基づいて、混雑度を評価してよい。或いは、例えば、NetFlow、SFlow、AppFlow等のフロー毎に輻輳状態を監視するためのフロー監視方法が採用されてよい。この場合、制御部21は、フロー監視方法により得られたフロー状態の情報に基づいて、混雑度を評価してもよい。制御部21は、混雑度が高いほど圧縮率を高く設定し、混雑度が低いほど圧縮率を低く設定してもよい。混雑度に応じた圧縮率は、段階的に離散値により規定されてもよいし、或いは連続値により規定されてもよい。 As another example of the index, the compression rate may be determined according to communication conditions. In this case, the control unit 21 measures the traffic congestion degree of the network 4 with the server device 1 . Any method may be adopted as a method of measuring the degree of congestion. For example, the control unit 21 may measure the response speed with the server device 1 using a ping command as an index for evaluating the degree of congestion. The controller 21 can evaluate that the faster the response speed, the lower the congestion degree, and the slower the response speed, the higher the congestion degree. Alternatively, for example, a method using SNMP (Simple Network Management Protocol) for monitoring the amount of discarded packets or the like may be adopted. In this case, the control unit 21 may evaluate the degree of congestion based on the results of SNMP monitoring. Alternatively, for example, a flow monitoring method for monitoring the congestion state for each flow such as NetFlow, SFlow, AppFlow, etc. may be employed. In this case, the control unit 21 may evaluate the degree of congestion based on flow state information obtained by the flow monitoring method. The control unit 21 may set a higher compression rate as the degree of congestion is higher, and may set a lower compression rate as the degree of congestion is lower. The compression rate according to the degree of congestion may be defined stepwise by discrete values, or may be defined by continuous values.

また、圧縮方法には、任意の方法が採用されてよい。一例では、圧縮方法には、例えば、ダウンサンプリング、周波数成分毎に転送する方式(例えば、プログレッシブJPEG)等の方法が採用されてよい。圧縮方法には、送信されるデータの量が元のデータよりも小さくなるあらゆる方法が採用されてよい。圧縮された対象データ33を生成すると、制御部21は、次のステップS203に処理を進める。 Any compression method may be employed. In one example, the compression method may employ a method such as downsampling, a method of transferring each frequency component (eg, progressive JPEG), or the like. Any compression method that results in the amount of data being transmitted being smaller than the original data may be employed. After generating the compressed target data 33, the control unit 21 proceeds to the next step S203.

(ステップS203及びステップS204)
ステップS203では、制御部21は、ネットワーク4を介して圧縮された対象データ33をサーバ装置1に送信する。このステップS203の処理が実行された結果、サーバ装置1は、上記ステップS101の処理において、圧縮された対象データ33を受信する。圧縮された対象データ33を送信すると、制御部21は、次のステップS204に処理を進める。
(Steps S203 and S204)
In step S<b>203 , the control unit 21 transmits the compressed target data 33 to the server device 1 via the network 4 . As a result of executing the process of step S203, the server apparatus 1 receives the compressed target data 33 in the process of step S101. After transmitting the compressed target data 33, the control unit 21 advances the process to the next step S204.

ステップS204では、制御部21は、上記ステップS105による再送指示をサーバ装置1から受信したか否かに応じて、処理の分岐先を決定する。再送指示を受信した場合、制御部21は、ステップS202に処理を戻し、ステップS202及びステップS203の処理を繰り返し実行する。 In step S204, the control unit 21 determines the branch destination of the process according to whether or not the retransmission instruction in step S105 has been received from the server device 1 or not. When receiving the retransmission instruction, the control unit 21 returns the process to step S202, and repeats the processes of steps S202 and S203.

ステップS202では、制御部21は、先の圧縮率よりも低い圧縮率で対象データ31を再度圧縮することで、圧縮された対象データ35を生成する。上記のとおり、圧縮率を低下させる程度は、推論結果の尤もらしさに応じて決定されてもよいし、或いは尤もらしさに依らずに決定されてよい。また、圧縮率を低下させる程度は、再送指示と共にサーバ装置1から指示されてよい。或いは、サーバ装置1からの指示に依らず、制御部21は、圧縮率を低下させる程度を適宜決定してよい。 In step S202, the control unit 21 generates compressed target data 35 by compressing the target data 31 again at a compression rate lower than the previous compression rate. As described above, the degree to which the compression ratio is lowered may be determined according to the likelihood of the inference result, or may be determined regardless of the likelihood. Also, the degree to which the compression ratio is to be lowered may be instructed by the server apparatus 1 together with the retransmission instruction. Alternatively, the control unit 21 may appropriately determine the extent to which the compression rate is to be lowered, without depending on the instruction from the server device 1 .

ステップS203では、制御部21は、ネットワーク4を介して再度圧縮された対象データ35をサーバ装置1に送信する。このステップS203の処理が実行された結果、サーバ装置1は、上記ステップS105の処理を実行した後のステップS101の処理において、圧縮された対象データ35を受信する。 In step S<b>203 , the control unit 21 transmits the recompressed target data 35 to the server device 1 via the network 4 . As a result of executing the process of step S203, the server apparatus 1 receives the compressed target data 35 in the process of step S101 after executing the process of step S105.

他方、再送指示を受信しなかった場合、制御部21は、本動作例に係るクライアント装置2の処理手順を終了する。終了を判定する方法の一例として、サーバ装置1は、上記ステップS104において、処理の分岐先をステップS105の方に決定しなかった(すなわち、ステップS106の方に決定した)場合に、そのことを知らせるための通知をクライアント装置2に送信してもよい。ステップS106の出力処理において、推論結果に関する情報をクライアント装置2に送信する場合、送信情報が、当該通知の役割を果たしてもよい。制御部21は、この通知を受信することで、再送指示は発生しなかったと判定し、本動作例に係るクライアント装置2の処理手順を終了してもよい。 On the other hand, when the retransmission instruction is not received, the control unit 21 terminates the processing procedure of the client device 2 according to this operation example. As an example of a method for judging the end, if the server device 1 does not decide to branch to step S105 (that is, decides to branch to step S106) in step S104, the server device 1 A notification may be sent to the client device 2 to inform them. In the output process of step S106, when information about the inference result is transmitted to the client device 2, the transmission information may serve as the notification. By receiving this notification, the control unit 21 may determine that no retransmission instruction has occurred, and terminate the processing procedure of the client device 2 according to this operation example.

なお、制御部21は、ステップS201-ステップS204の一連の情報処理を任意のタイミングで実行してよい。一例では、制御部21は、オペレータの操作に応じて、ステップS201-ステップS204の一連の処理を実行してもよい。他の一例では、制御部21は、ステップS201-ステップS204の一連の情報処理を継続的に繰り返し実行してもよい。繰り返すタイミングは、実施の形態に応じて適宜決定されてよい。 Note that the control unit 21 may execute a series of information processing from step S201 to step S204 at any timing. In one example, the control unit 21 may execute a series of processes from step S201 to step S204 according to the operator's operation. As another example, the control unit 21 may continuously and repeatedly execute a series of information processing from step S201 to step S204. The timing of repetition may be appropriately determined according to the embodiment.

[特徴]
以上のとおり、本実施形態では、上記ステップS101及びステップS203の処理において、サーバ装置1及びクライアント装置2の間で、圧縮された対象データ(33、35)をやり取りするようにすることで、ネットワーク4のトラヒックを低減することができる。加えて、サーバ装置1において、上記ステップS103-ステップS105の処理により、推論モデル5による推論タスクの遂行結果の尤もらしさを評価し、尤もらしさが閾値未満である場合に、先の圧縮率よりも圧縮率を低くした対象データ35を再送するようにする。これにより、圧縮率の低い(すなわち、情報の欠落がより少ない)対象データ35に対する推論モデル5による推論タスクの遂行を可能にし、推論結果の尤もらしさの向上を図ることができる。したがって、本実施形態によれば、ネットワーク4のトラヒックを低減しつつ、推論モデル5により遂行される推論タスクの精度を保証することができる。また、上記ステップS103の処理において、尤もらしさを適正に算出することで、推論モデル5により遂行される推論タスクの精度を適切に保証することができる。
[feature]
As described above, in the present embodiment, in the processes of steps S101 and S203, the compressed target data (33, 35) are exchanged between the server device 1 and the client device 2, so that network 4 traffic can be reduced. In addition, in the server device 1, the likelihood of the performance result of the inference task by the inference model 5 is evaluated by the processing of steps S103 to S105. The object data 35 with a low compression ratio is retransmitted. This enables the inference model 5 to perform the inference task on the target data 35 with a low compression rate (that is, less information loss), and improves the plausibility of the inference result. Therefore, according to this embodiment, the accuracy of the inference task performed by the inference model 5 can be guaranteed while reducing the traffic on the network 4 . Further, by properly calculating the likelihood in the process of step S103, the accuracy of the inference task performed by the inference model 5 can be appropriately guaranteed.

また、本実施形態では、ステップS105の処理において、サーバ装置1は、再送指示と共に、算出された尤もらしさに応じて圧縮率を低下させる程度を更に指示してもよい。これにより、再度実行されるステップS202及びステップS203の処理において、適切な圧縮率での再送を期待することができ、サーバ装置1及びクライアント装置2の間で圧縮された対象データ35の再送が実行される回数(すなわち、ステップS101-ステップS105/ステップS202及びステップS204の処理が繰り返される回数)を抑えることができる。したがって、本実施形態によれば、圧縮された対象データ35の再送によるネットワーク4のトラヒックの増加を抑制することができる。 Further, in the present embodiment, in the process of step S105, the server apparatus 1 may further instruct the extent to which the compression rate is lowered according to the calculated likelihood along with the retransmission instruction. As a result, in the processes of steps S202 and S203 that are executed again, retransmission at an appropriate compression rate can be expected, and retransmission of the compressed target data 35 between the server device 1 and the client device 2 is executed. (that is, the number of times the processes of steps S101 to S105/steps S202 and S204 are repeated) can be suppressed. Therefore, according to this embodiment, an increase in traffic on the network 4 due to retransmission of the compressed target data 35 can be suppressed.

§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良又は変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
§4 Modifications Although the embodiments of the present invention have been described in detail, the above description is merely an example of the present invention in every respect. It goes without saying that various modifications or variations can be made without departing from the scope of the invention. For example, the following changes are possible. In addition, below, the same code|symbol is used about the component similar to the said embodiment, and description is abbreviate|omitted suitably about the point similar to the said embodiment. The following modified examples can be combined as appropriate.

<4.1>
上記実施形態に係る通信システムは、所定種類のデータに対して任意の推論タスクを遂行するあらゆる場面に適用されてよい。推論タスクは、例えば、画像データに写る対象物を認識すること、音データに表れる特徴を推論すること、センシングデータに表れる特徴を推論すること等であってよい。対象データ31の種類は、推論タスクに応じて適宜選択されてよい。以下、適用場面を限定した変形例を示す。
<4.1>
The communication system according to the above embodiments may be applied to any situation in which any inference task is performed on a given type of data. The inference task may be, for example, recognizing an object appearing in image data, inferring features appearing in sound data, inferring features appearing in sensing data, and the like. The type of target data 31 may be appropriately selected according to the inference task. Modified examples with limited application scenes are shown below.

(A)画像認識の場面
図9は、第1具体例に係る通信システムの適用場面の一例を模式的に例示する。本変形例は、画像データに写る対象物を認識する場面に上記実施形態を適用した例である。本変形例に係る通信システムは、上記実施形態に係る通信システムの一例であり、サーバ装置1及び画像取得装置2Aを備える。上記実施形態と同様に、サーバ装置1及び画像取得装置2Aは、ネットワーク4を介して互いに接続される。
(A) Image Recognition Scene FIG. 9 schematically illustrates an example of an application scene of the communication system according to the first specific example. This modified example is an example in which the above-described embodiment is applied to a scene of recognizing an object appearing in image data. The communication system according to this modification is an example of the communication system according to the above embodiment, and includes the server device 1 and the image acquisition device 2A. The server device 1 and the image acquisition device 2A are connected to each other via the network 4 in the same manner as in the above embodiment.

本変形例では、対象データは、対象物RAの写り得る画像データ31Aにより構成される。画像データ31Aは、例えば、静止画像、動画像、3D画像等の画像を示すように構成されてよい。画像データ31Aは、カメラSAにより得られてもよいし、カメラSAにより得られた生のデータを適宜加工することで生成されてもよいし、或いは任意の画像処理によりカメラSAに依らずに生成されてもよい。カメラSAは、例えば、一般的なRGBカメラ、深度カメラ、赤外線カメラ等であってよい。画像取得装置2Aは、対象データとして画像データ31Aを取得するように構成されたコンピュータである。画像取得装置2Aは、上記実施形態に係るクライアント装置2の一例である。推論タスクは、対象データを構成する画像データ31Aに写る対象物RAを認識することにより構成される。対象物RAを認識することは、例えば、対象物RAの種別を識別すること、対象物RAの写る領域を抽出すること(セグメンテーション)等を含んでよい。 In this modification, the target data is composed of image data 31A in which the target object RA can be captured. The image data 31A may be configured to indicate images such as still images, moving images, and 3D images, for example. The image data 31A may be obtained by the camera SA, may be generated by appropriately processing raw data obtained by the camera SA, or may be generated by arbitrary image processing independent of the camera SA. may be Camera SA may be, for example, a general RGB camera, a depth camera, an infrared camera, or the like. The image acquisition device 2A is a computer configured to acquire image data 31A as target data. The image acquisition device 2A is an example of the client device 2 according to the above embodiment. The inference task is constructed by recognizing the object RA appearing in the image data 31A that constitutes the object data. Recognizing the target object RA may include, for example, identifying the type of the target object RA, extracting a region in which the target object RA is captured (segmentation), and the like.

対象物RAは、人物であってもよいし、任意の物であってもよい。画像データ31Aに写る範囲は、対象物RAの特定部位(例えば、顔等)であってもよいし、或いは対象物RAの全体であってもよい。対象物RAが人物である場合、認識対象は、例えば、顔等の身体の一部であってもよい。人物の種別を識別することは、例えば、個人を推定することであってもよいし、或いは身体部位(顔、腕、脚、関節等)を推定することであってもよい。任意の物についても同様である。 The object RA may be a person or any object. The range captured in the image data 31A may be a specific portion (for example, face) of the object RA, or may be the entire object RA. When the target object RA is a person, the recognition target may be, for example, a part of the body such as the face. Identifying the type of a person may be, for example, estimating an individual or estimating body parts (face, arms, legs, joints, etc.). The same is true for arbitrary objects.

一例として、図9に示されるとおり、対象データを構成する画像データ31Aは、監視カメラSA1により得られてもよい。この場合、画像データ31Aに写る対象物RAを認識することは、画像データ31AにおけるシーンRA1を識別することであってよい。監視カメラSA1は、カメラSAの一例であり、シーンRA1は、対象物RAの一例である。シーンRA1を識別することは、例えば、特定の人物が存在するか否かを判定すること、所定の場所(例えば、街頭、駅構内、空港、ホール等)で危険の予兆があるか否かを推定すること等を含んでよい。 As an example, as shown in FIG. 9, the image data 31A forming the target data may be obtained by the surveillance camera SA1. In this case, recognizing the object RA appearing in the image data 31A may be identifying the scene RA1 in the image data 31A. The monitoring camera SA1 is an example of the camera SA, and the scene RA1 is an example of the object RA. Identifying the scene RA1 means, for example, determining whether or not a specific person exists, or determining whether or not there is a sign of danger in a predetermined place (eg, street, station, airport, hall, etc.). It may include estimating and the like.

他の一例として、対象データを構成する画像データ31Aは、製造ラインで生産される製品の状態を監視するカメラにより得られてよい。この場合、画像データ31Aに写る対象物RAを認識することは、画像データ31Aに写る製品に欠陥があるか否かを判定すること(すなわち、製品の外観検査を行うこと)であってよい。製品に欠陥があるか否かを判定することは、例えば、欠陥の有無を識別すること、製品に欠陥が含まれる確率を推定すること、製品に含まれる欠陥の種別(「欠陥がない」ことを示す種別が含まれてもよい)を識別すること、製品に含まれる欠陥の範囲を抽出すること又はこれらに組み合わせにより構成されてよい。 As another example, the image data 31A forming the target data may be obtained by a camera that monitors the state of products produced on the manufacturing line. In this case, recognizing the object RA shown in the image data 31A may be determining whether or not the product shown in the image data 31A has a defect (that is, performing a visual inspection of the product). Determining whether or not a product has defects includes, for example, identifying the presence or absence of defects, estimating the probability that the product contains defects, and determining the types of defects contained in the product ("defect free"). ), extracting the range of defects contained in the product, or a combination thereof.

なお、製品は、例えば、電子機器、電子部品、自動車部品、薬品、食品等の製造ラインで搬送される製品であってよい。電子部品は、例えば、基盤、チップコンデンサ、液晶、リレーの巻線等であってよい。自動車部品は、例えば、コンロッド、シャフト、エンジンブロック、パワーウィンドウスイッチ、パネル等であってよい。薬品は、例えば、包装済みの錠剤、未包装の錠剤等であってよい。製品は、製造過程完了後に生成される最終品であってもよいし、製造過程の途中で生成される中間品であってもよいし、製造過程を経過する前に用意される初期品であってもよい。欠陥は、例えば、傷、汚れ、クラック、打痕、バリ、色ムラ、異物混入等であってよい。 The product may be, for example, a product that is transported in a manufacturing line for electronic equipment, electronic parts, automobile parts, medicines, food, and the like. The electronic components may be, for example, substrates, chip capacitors, liquid crystals, windings of relays, and the like. Automotive parts may be, for example, connecting rods, shafts, engine blocks, power window switches, panels and the like. The drug may be, for example, packaged tablets, unpackaged tablets, and the like. A product may be a final product produced after the manufacturing process is completed, an intermediate product produced during the manufacturing process, or an initial product prepared before the manufacturing process. may Defects may be, for example, scratches, stains, cracks, dents, burrs, color unevenness, foreign matter contamination, and the like.

これらの点を除き、本変形例に係る通信システムは、上記実施形態と同様に構成されてよい。 Except for these points, the communication system according to this modification may be configured in the same manner as the above embodiment.

(サーバ装置)
本変形例では、サーバ装置1は、上記実施形態と同様の処理手順により、推論タスクの遂行及び再送指示を送信するように構成されてよい。すなわち、上記ステップS101では、制御部11は、圧縮された画像データ33Aを画像取得装置2Aから受信する。ステップS102では、制御部11は、推論モデル5Aを使用することで受信した画像データ33Aに対して推論タスクを遂行した結果を取得する。推論モデル5Aは、与えられた画像データに写る対象物を認識するタスクを遂行する演算処理を実行可能に適宜構成されてよい。上記実施形態と同様に、推論モデル5Aは、機械学習により生成された訓練済みの機械学習モデルにより構成されてよい。
(Server device)
In this modification, the server device 1 may be configured to perform the inference task and transmit a retransmission instruction by the same processing procedure as in the above embodiment. That is, in step S101, the control unit 11 receives the compressed image data 33A from the image acquisition device 2A. In step S102, the control unit 11 acquires the result of performing the inference task on the received image data 33A by using the inference model 5A. The inference model 5A may be appropriately configured to be capable of executing arithmetic processing for performing the task of recognizing an object appearing in given image data. As in the above embodiment, the inference model 5A may be a trained machine learning model generated by machine learning.

ステップS103では、制御部11は、推論モデル5Aによる推論タスクの遂行結果の尤もらしさを算出する。ステップS104では、制御部11は、算出された尤もらしさの値に応じて、処理の分岐先を決定する。算出された尤もらしさが閾値未満である場合、制御部11は、ステップS105に処理を進める。一方、尤もらしさが閾値を超える場合、制御部11は、ステップS106に処理を進める。尤もらしさが閾値と等しい場合には、処理の分岐先は、いずれであってもよい。 In step S103, the control unit 11 calculates the likelihood of the performance result of the inference task by the inference model 5A. In step S104, the control unit 11 determines a branch destination of the process according to the calculated likelihood value. When the calculated likelihood is less than the threshold, the control unit 11 advances the process to step S105. On the other hand, when the likelihood exceeds the threshold, the control unit 11 advances the process to step S106. If the likelihood is equal to the threshold, the processing may branch to any destination.

ステップS105では、制御部11は、先の圧縮率よりも圧縮率を低くした上で画像データを再送させる指示を画像取得装置2Aに対して送信する。その後、制御部11は、上記実施形態と同様に、ステップS101に処理を戻し、一連の処理を繰り返してよい。ステップS101では、制御部11は、先の圧縮率よりも低い圧縮率で圧縮された画像データ35Aを取得する。ステップS102では、制御部11は、推論モデル5Aを使用することで画像データ35Aに対して推論タスクを遂行した結果を取得する。制御部11は、取得された画像データ35Aに関して、ステップS103以降の処理も実行してよい。 In step S105, the control unit 11 transmits an instruction to the image acquisition device 2A to resend the image data after setting the compression rate lower than the previous compression rate. After that, the control unit 11 may return the process to step S101 and repeat the series of processes in the same manner as in the above-described embodiment. In step S101, the control unit 11 acquires the image data 35A compressed at a compression rate lower than the previous compression rate. In step S102, the control unit 11 acquires the result of performing the inference task on the image data 35A by using the inference model 5A. The control unit 11 may also perform the processing after step S103 for the acquired image data 35A.

ステップS106では、制御部11は、推論タスクの遂行結果に関する情報を出力する。出力先は、例えば、出力装置16、他のコンピュータの出力装置、制御対象装置、画像取得装置2A等であってよい。一例では、制御部11は、対象物RAを認識した結果をそのまま出力してよい。他の一例では、制御部11は、対象物RAを識別した結果に応じて任意の情報処理を実行してよい。具体例として、上記シーンRA1の識別のケースにおいて、制御部11は、例えば、危険の発生確率が閾値を超える等により、危険の予兆があると認定される場合に、そのことを知らせるための通知を出力してもよい。他の具体例として、上記製品の外観検査のケースにおいて、製造ラインは、製品を搬送するコンベア装置を備えてよい。制御部11は、製品に欠陥があるか否かを判定した結果に基づいて、欠陥のある製品と欠陥のない製品とを別のラインで搬送されるようにコンベア装置を制御してもよい。この場合、制御部11は、画像取得装置2Aに対してコンベア装置の動作を上記のとおりに制御させてもよい。 At step S106, the control unit 11 outputs information about the performance result of the inference task. The output destination may be, for example, the output device 16, an output device of another computer, a device to be controlled, the image acquisition device 2A, or the like. In one example, the control unit 11 may output the result of recognizing the target object RA as it is. As another example, the control unit 11 may execute arbitrary information processing according to the result of identifying the target object RA. As a specific example, in the case of identifying the scene RA1, when it is recognized that there is a sign of danger, for example, because the probability of occurrence of danger exceeds a threshold value, the control unit 11 sends a notification to notify that fact. may be output. As another specific example, in the case of the visual inspection of the product, the production line may include a conveyor device that conveys the product. The control unit 11 may control the conveyor device so that defective products and non-defective products are conveyed on separate lines based on the result of determining whether or not the products are defective. In this case, the control unit 11 may cause the image acquisition device 2A to control the operation of the conveyor device as described above.

(画像取得装置)
画像取得装置2Aのハードウェア構成及びソフトウェア構成は、上記実施形態に係るクライアント装置2と同様であってよい。本変形例では、画像取得装置2Aは、通信インタフェース又は外部インタフェースを介してカメラSAに接続されてよい。或いは、カメラSAは他のコンピュータに接続され、画像取得装置2Aは、当該他のコンピュータに接続することで、カメラSAから画像データ31Aを取得可能に構成されてもよい。画像取得装置2Aは、カメラSAを内蔵してもよい。
(Image acquisition device)
The hardware configuration and software configuration of the image acquisition device 2A may be the same as those of the client device 2 according to the above embodiment. In this modification, the image acquisition device 2A may be connected to the camera SA via a communication interface or an external interface. Alternatively, the camera SA may be connected to another computer, and the image acquisition device 2A may be configured to be able to acquire the image data 31A from the camera SA by connecting to the other computer. The image acquisition device 2A may incorporate a camera SA.

画像取得装置2Aは、上記クライアント装置2と同様の処理手順により、圧縮された画像データ(33A、35A)を送信する処理を実行してよい。すなわち、ステップS201では、画像取得装置2Aの制御部は、画像データ31Aを取得する。ステップS202では、制御部は、取得された画像データ31Aを圧縮することで、圧縮された画像データ33Aを生成する。ステップS203では、制御部は、ネットワーク4を介して圧縮された画像データ33Aをサーバ装置1に送信する。 The image acquisition device 2A may perform processing for transmitting the compressed image data (33A, 35A) according to the same processing procedure as the client device 2 described above. That is, in step S201, the control section of the image acquisition device 2A acquires the image data 31A. In step S202, the control unit generates compressed image data 33A by compressing the acquired image data 31A. In step S203, the control unit transmits the compressed image data 33A to the server device 1 via the network 4. FIG.

ステップS204では、制御部は、再送指示をサーバ装置1から受信したか否かに応じて、処理の分岐先を決定する。再送指示を受信した場合、制御部は、ステップS202に処理を戻し、ステップS202及びステップS203の処理を繰り返し実行する。ステップS202では、制御部は、先の圧縮率よりも低い圧縮率で画像データ31Aを再度圧縮することで、圧縮された画像データ35Aを生成する。ステップS203では、制御部は、ネットワーク4を介して再度圧縮された画像データ35Aをサーバ装置1に送信する。他方、再送指示を受信しなかった場合、制御部は、データ送信に関する処理手順を終了する。 In step S<b>204 , the control unit determines a branch destination of the process depending on whether or not a retransmission instruction has been received from the server device 1 . When the retransmission instruction is received, the control unit returns the process to step S202 and repeats the processes of steps S202 and S203. In step S202, the control unit generates compressed image data 35A by compressing the image data 31A again at a compression rate lower than the previous compression rate. In step S203, the control unit transmits the recompressed image data 35A to the server apparatus 1 via the network 4. FIG. On the other hand, if the resend instruction is not received, the control unit terminates the procedure for data transmission.

(特徴)
第1具体例によれば、画像取得装置2Aからサーバ装置1に画像データを送信し、画像データに対して推論タスクを遂行する場面で、ネットワーク4のトラヒックを低減しつつ、推論モデル5Aにより遂行される推論タスクの精度を保証することができる。画像データは比較的にデータ量が大きく、トラヒックを圧迫する原因になり得る。そのため、特に有効に当該効果を発揮することができる。
(feature)
According to the first specific example, when image data is transmitted from the image acquisition device 2A to the server device 1 and an inference task is performed on the image data, the traffic on the network 4 is reduced and the inference model 5A is used to perform the task. The accuracy of the inference task performed can be guaranteed. Image data has a relatively large amount of data, and can be a cause of heavy traffic. Therefore, the effect can be exhibited particularly effectively.

(B)音認識の場面
図10は、第2具体例に係る通信システムの適用場面の一例を模式的に例示する。本変形例は、音データに表れる特徴を推論する場面に上記実施形態を適用した例である。本変形例に係る通信システムは、上記実施形態に係る通信システムの一例であり、サーバ装置1及び音取得装置2Bを備える。上記実施形態と同様に、サーバ装置1及び音取得装置2Bは、ネットワーク4を介して互いに接続される。
(B) Sound Recognition Scene FIG. 10 schematically illustrates an example of an application scene of the communication system according to the second specific example. This modified example is an example in which the above-described embodiment is applied to a situation in which features appearing in sound data are inferred. The communication system according to this modification is an example of the communication system according to the above embodiment, and includes the server device 1 and the sound acquisition device 2B. The server device 1 and the sound acquisition device 2B are connected to each other via the network 4 in the same manner as in the above embodiment.

本変形例では、対象データは、対象RBの特徴が表れ得る音データ31Bにより構成される。音データ31Bは、マイクロフォンSBにより対象RBを観測することで得られてもよいし、マイクロフォンSBにより得られた生のデータを適宜加工することで生成されてもよいし、或いは任意の音生成処理によりマイクロフォンSBに依らずに生成されてもよい。マイクロフォンSBの種類は、実施の形態に応じて適宜選択されてよい。音取得装置2Bは、対象データとして音データ31Bを取得するように構成されたコンピュータである。音取得装置2Bは、上記実施形態に係るクライアント装置2の一例である。推論タスクは、対象データを構成する音データ31Bに表れる対象RBの特徴を推論することにより構成される。 In this modified example, the target data is composed of sound data 31B in which the characteristics of the target RB can appear. The sound data 31B may be obtained by observing the target RB with the microphone SB, may be generated by appropriately processing raw data obtained by the microphone SB, or may be generated by arbitrary sound generation processing. may be generated without relying on the microphone SB. The type of microphone SB may be appropriately selected according to the embodiment. The sound acquisition device 2B is a computer configured to acquire sound data 31B as target data. The sound acquisition device 2B is an example of the client device 2 according to the above embodiment. The inference task is configured by inferring the features of the target RB appearing in the sound data 31B forming the target data.

一例として、図10に示されるとおり、対象データを構成する音データ31Bは、話者の音声RB1をマイクロフォンSBにより録音することにより得られてよい。話者の音声RB1は、対象RBの一例である。この場合、音データ31Bに表れる特徴を推論することは、話者の音声RB1を認識することにより構成されてよい。話者の音声RB1を認識することは、例えば、話者を識別すること、発話内容を分析(言語理解)すること等であってよい。 As an example, as shown in FIG. 10, the sound data 31B forming the target data may be obtained by recording the speaker's voice RB1 with the microphone SB. A speaker's voice RB1 is an example of a target RB. In this case, inferring features appearing in the sound data 31B may consist of recognizing the speaker's speech RB1. Recognizing the speech RB1 of the speaker may be, for example, identifying the speaker, analyzing the utterance content (language understanding), or the like.

他の一例として、対象データを構成する音データ31Bは、環境音又は機械の動作音を観測することにより得られてよい。この場合、音データ31Bに表れる特徴を推論することは、環境の状態を推論すること又は機械の状態を推論することであってよい。環境の状態を推論することは、例えば、アクシデントが発生しているか否かを判定すること、アクシデントが発生する予兆があるか否かを判定すること、天候を判別すること等であってよい。機械の状態を推論することは、例えば、機械が正常に動作しているか否か、機械に故障の予兆があるか否か等を判定することであってよい。 As another example, the sound data 31B forming the target data may be obtained by observing environmental sounds or machine operating sounds. In this case, inferring the features appearing in the sound data 31B may be inferring the state of the environment or inferring the state of the machine. Inferring the state of the environment may be, for example, determining whether an accident has occurred, determining whether there is a sign of the occurrence of an accident, determining the weather, and the like. Inferring the state of the machine may be, for example, determining whether the machine is operating normally, whether the machine has signs of failure, and the like.

これらの点を除き、本変形例に係る通信システムは、上記実施形態と同様に構成されてよい。 Except for these points, the communication system according to this modification may be configured in the same manner as the above embodiment.

(サーバ装置)
本変形例では、サーバ装置1は、上記実施形態と同様の処理手順により、推論タスクの遂行及び再送指示を送信するように構成されてよい。すなわち、上記ステップS101では、制御部11は、圧縮された音データ33Bを音取得装置2Bから受信する。ステップS102では、制御部11は、推論モデル5Bを使用することで受信した音データ33Bに対して推論タスクを遂行した結果を取得する。推論モデル5Bは、与えられた音データに表れる特徴を推論するタスクを遂行する演算処理を実行可能に適宜構成されてよい。上記実施形態と同様に、推論モデル5Bは、機械学習により生成された訓練済みの機械学習モデルにより構成されてよい。
(Server device)
In this modification, the server device 1 may be configured to perform the inference task and transmit a retransmission instruction by the same processing procedure as in the above embodiment. That is, in step S101, the control unit 11 receives the compressed sound data 33B from the sound acquisition device 2B. In step S102, the control unit 11 acquires the result of performing the inference task on the received sound data 33B by using the inference model 5B. The inference model 5B may be appropriately configured to be able to execute arithmetic processing that accomplishes the task of inferring features appearing in given sound data. As in the above embodiment, the inference model 5B may be a trained machine learning model generated by machine learning.

ステップS103では、制御部11は、推論モデル5Bによる推論タスクの遂行結果の尤もらしさを算出する。ステップS104では、制御部11は、算出された尤もらしさの値に応じて、処理の分岐先を決定する。算出された尤もらしさが閾値未満である場合、制御部11は、ステップS105に処理を進める。一方、尤もらしさが閾値を超える場合、制御部11は、ステップS106に処理を進める。尤もらしさが閾値と等しい場合には、処理の分岐先は、いずれであってもよい。 In step S103, the control unit 11 calculates the likelihood of the execution result of the inference task by the inference model 5B. In step S104, the control unit 11 determines a branch destination of the process according to the calculated likelihood value. When the calculated likelihood is less than the threshold, the control unit 11 advances the process to step S105. On the other hand, when the likelihood exceeds the threshold, the control unit 11 advances the process to step S106. If the likelihood is equal to the threshold, the processing may branch to any destination.

ステップS105では、制御部11は、先の圧縮率よりも圧縮率を低くした上で音データを再送させる指示を音取得装置2Bに対して送信する。その後、制御部11は、上記実施形態と同様に、ステップS101に処理を戻し、一連の処理を繰り返してよい。ステップS101では、制御部11は、先の圧縮率よりも低い圧縮率で圧縮された音データ35Bを取得する。ステップS102では、制御部11は、推論モデル5Bを使用することで音データ35Bに対して推論タスクを遂行した結果を取得する。制御部11は、取得された音データ35Bに関して、ステップS103以降の処理も実行してよい。 In step S105, the control unit 11 transmits an instruction to the sound acquisition device 2B to retransmit the sound data with a lower compression rate than the previous compression rate. After that, the control unit 11 may return the process to step S101 and repeat the series of processes in the same manner as in the above-described embodiment. In step S101, the control section 11 acquires the sound data 35B compressed at a compression rate lower than the previous compression rate. In step S102, the control unit 11 acquires the result of performing the inference task on the sound data 35B by using the inference model 5B. The control unit 11 may also execute the processes after step S103 for the acquired sound data 35B.

ステップS106では、制御部11は、推論タスクの遂行結果に関する情報を出力する。出力先は、例えば、出力装置16、他のコンピュータの出力装置、制御対象装置、音取得装置2B等であってよい。一例では、制御部11は、対象RBの特徴を推論した結果をそのまま出力してよい。他の一例では、制御部11は、推論結果に応じて任意の情報処理を実行してよい。具体例として、上記話者の音声RB1を認識するケースにおいて、制御部11は、話者の発話内容に応じて応答内容を決定し、決定された応答内容を出力してもよい。或いは、制御部11は、話者の発話内容に基づいて、言語検索(例えば、用語検索、歌謡曲の検索等)を実行し、検索結果を出力してもよい。これらの具体例は、音取得装置2Bがスマートフォン等のユーザ端末であり、音取得装置2Bに対して推論結果に関する情報を出力する場面で専ら適用されてよい。他の具体例として、上記機械音から機械の状態を推論するケースでは、制御部11は、推論結果に基づいて、対象の機械が故障している又は故障の予兆があると判定される場合に、例えば、機械の動作を停止する、そのことを知らせる通知を出力する等の故障又はその予兆に対処するための処理を実行してもよい。 At step S106, the control unit 11 outputs information about the performance result of the inference task. The output destination may be, for example, the output device 16, an output device of another computer, a controlled device, the sound acquisition device 2B, or the like. In one example, the control unit 11 may directly output the result of inferring the characteristics of the target RB. As another example, the control unit 11 may execute arbitrary information processing according to the inference result. As a specific example, in the case of recognizing the speaker's voice RB1, the control unit 11 may determine the response content according to the speaker's utterance content, and output the determined response content. Alternatively, the control unit 11 may execute a language search (for example, a term search, a popular song search, etc.) based on the utterance content of the speaker and output the search result. These specific examples may be exclusively applied when the sound acquisition device 2B is a user terminal such as a smart phone, and information regarding the inference result is output to the sound acquisition device 2B. As another specific example, in the case of inferring the state of the machine from the mechanical sound, the control unit 11 determines that the target machine is out of order or has a sign of failure based on the inference result. For example, a process for coping with the failure or its sign may be executed, such as stopping the operation of the machine or outputting a notification to notify the fact.

(音取得装置)
音取得装置2Bのハードウェア構成及びソフトウェア構成は、上記実施形態に係るクライアント装置2と同様であってよい。本変形例では、音取得装置2Bは、通信インタフェース又は外部インタフェースを介してマイクロフォンSBに接続されてよい。或いは、マイクロフォンSBは他のコンピュータに接続され、音取得装置2Bは、当該他のコンピュータに接続することで、マイクロフォンSBから音データ31Bを取得可能に構成されてもよい。音取得装置2Bは、マイクロフォンSBを内蔵してもよい。
(sound acquisition device)
The hardware configuration and software configuration of the sound acquisition device 2B may be the same as those of the client device 2 according to the above embodiment. In this modification, the sound acquisition device 2B may be connected to the microphone SB via a communication interface or an external interface. Alternatively, the microphone SB may be connected to another computer, and the sound acquisition device 2B may be configured to be able to acquire the sound data 31B from the microphone SB by connecting to the other computer. The sound acquisition device 2B may incorporate a microphone SB.

音取得装置2Bは、上記クライアント装置2と同様の処理手順により、圧縮された音データ(33B、35B)を送信する処理を実行してよい。すなわち、ステップS201では、音取得装置2Bの制御部は、音データ31Bを取得する。ステップS202では、制御部は、取得された音データ31Bを圧縮することで、圧縮された音データ33Bを生成する。ステップS203では、制御部は、ネットワーク4を介して圧縮された音データ33Bをサーバ装置1に送信する。 The sound acquisition device 2B may perform processing for transmitting compressed sound data (33B, 35B) by the same processing procedure as the client device 2 described above. That is, in step S201, the control unit of the sound acquisition device 2B acquires sound data 31B. In step S202, the control unit generates compressed sound data 33B by compressing the acquired sound data 31B. In step S203, the control unit transmits the compressed sound data 33B to the server device 1 via the network 4. FIG.

ステップS204では、制御部は、再送指示をサーバ装置1から受信したか否かに応じて、処理の分岐先を決定する。再送指示を受信した場合、制御部は、ステップS202に処理を戻し、ステップS202及びステップS203の処理を繰り返し実行する。ステップS202では、制御部は、先の圧縮率よりも低い圧縮率で音データ31Bを再度圧縮することで、圧縮された音データ35Bを生成する。ステップS203では、制御部は、ネットワーク4を介して再度圧縮された音データ35Bをサーバ装置1に送信する。他方、再送指示を受信しなかった場合、制御部は、データ送信に関する処理手順を終了する。 In step S<b>204 , the control unit determines a branch destination of the process depending on whether or not a retransmission instruction has been received from the server device 1 . When the retransmission instruction is received, the control unit returns the process to step S202 and repeats the processes of steps S202 and S203. In step S202, the control unit generates compressed sound data 35B by compressing the sound data 31B again at a compression rate lower than the previous compression rate. In step S<b>203 , the control unit transmits the recompressed sound data 35</b>B to the server device 1 via the network 4 . On the other hand, if the resend instruction is not received, the control unit terminates the procedure for data transmission.

(特徴)
第2具体例によれば、音取得装置2Bからサーバ装置1に音データを送信し、音データに対して推論タスクを遂行する場面で、ネットワーク4のトラヒックを低減しつつ、推論モデル5Bにより遂行される推論タスクの精度を保証することができる。音データも画像データと同様に比較的にデータ量が大きく、トラヒックを圧迫する原因になり得る。そのため、特に有効に当該効果を発揮することができる。
(feature)
According to the second specific example, when sound data is transmitted from the sound acquisition device 2B to the server device 1 and an inference task is performed on the sound data, the inference model 5B is used to reduce traffic on the network 4. The accuracy of the inference task performed can be guaranteed. As with image data, sound data also has a relatively large amount of data, and can be a cause of heavy traffic. Therefore, the effect can be exhibited particularly effectively.

(C)センシング対象の状態を認識する場面
図11は、第3具体例に係る通信システムの適用場面の一例を模式的に例示する。本変形例は、センシングデータに表れる特徴を推論する場面に上記実施形態を適用した例である。本変形例に係る通信ンシステムは、上記実施形態に係る通信システムの一例であり、サーバ装置1及び観測装置2Cを備える。上記実施形態と同様に、サーバ装置1及び観測装置2Cは、ネットワーク4を介して互いに接続される。
(C) Scene of Recognizing State of Sensing Target FIG. 11 schematically illustrates an example of an application scene of the communication system according to the third specific example. This modified example is an example in which the above-described embodiment is applied to a situation in which features appearing in sensing data are inferred. The communication system according to this modification is an example of the communication system according to the above embodiment, and includes a server device 1 and an observation device 2C. The server device 1 and the observation device 2C are connected to each other via the network 4 as in the above embodiment.

本変形例では、対象データは、対象物RCの特徴が表れ得るセンシングデータ31Cにより構成される。センシングデータ31Cは、対象物RCをセンサSCにより観測することで得られてもよいし、センサSCにより得られた生のデータを適宜加工する(例えば、特徴量を抽出する)ことで生成されてもよいし、或いはセンサSCの動作を模擬することで生成されてもよい。センシングデータ31Cは、単一種類のデータにより構成されてもよいし、或いは複数種類のデータにより構成されてもよい。センサSCは、例えば、カメラ、マイクロフォン、エンコーダ、環境センサ、バイタルセンサ、医療検査装置、車載センサ、ホームセキュリティセンサ等であってよい。観測装置2Cは、対象データとしてセンシングデータ31Cを取得するように構成されたコンピュータである。観測装置2Cは、上記実施形態に係るクライアント装置2の一例である。推論タスクは、対象データを構成するセンシングデータ31Cに表れる対象物RCに関する特徴を推論することにより構成される。 In this modification, the target data is composed of sensing data 31C that can represent the features of the target object RC. The sensing data 31C may be obtained by observing the object RC with the sensor SC, or may be generated by appropriately processing raw data obtained by the sensor SC (for example, extracting feature amounts). Alternatively, it may be generated by simulating the operation of the sensor SC. The sensing data 31C may be composed of a single type of data, or may be composed of a plurality of types of data. The sensors SC may be, for example, cameras, microphones, encoders, environmental sensors, vital sensors, medical examination equipment, vehicle sensors, home security sensors, and the like. The observation device 2C is a computer configured to acquire sensing data 31C as target data. The observation device 2C is an example of the client device 2 according to the above embodiment. The inference task is configured by inferring the features of the object RC appearing in the sensing data 31C forming the object data.

センサSCの種類は、推論タスクに応じて適宜選択されてよい。一例として、対象物RCは、対象人物RC1であってよく、対象物RCに関する特徴を推論することは、対象人物RC1の状態を推論することであってよい。この場合、対象人物RC1の状態を観測するセンサSC1は、例えば、カメラ、マイクロフォン、バイタルセンサ、及び医療検査装置の少なくともいずれかにより構成されてよい。対象人物RC1は、上記対象物RCの一例であり、センサSC1は、上記センサSCの一例である。推論内容の具体的な一例として、対象人物RC1の状態を推論することは、例えば、所定の疾患を発症する確率、体調変化が生じる確率等の健康状態を推論することであってよい。推論内容の他の具体的な一例として、対象人物RC1は、車両の運転者であってよく、対象人物RC1の状態を推論することは、運転者の状態(例えば、眠気度、疲労度、余裕度等)を推論することであってよい。 The type of sensor SC may be appropriately selected according to the inference task. As an example, the object RC may be the object person RC1, and inferring features about the object RC may be inferring the state of the object person RC1. In this case, the sensor SC1 that observes the state of the target person RC1 may be composed of at least one of a camera, a microphone, a vital sensor, and a medical examination device, for example. The target person RC1 is an example of the target object RC, and the sensor SC1 is an example of the sensor SC. As a specific example of the content of inference, inferring the state of the target person RC1 may be inferring health conditions such as the probability of developing a predetermined disease or the probability of a change in physical condition. As another specific example of the inference content, the target person RC1 may be the driver of the vehicle, and inferring the state of the target person RC1 may be based on the driver's state (for example, drowsiness, fatigue, leisure time, etc.). degrees, etc.).

他の一例として、対象物RCは産業用機械であってよく、対象物RCに関する特徴を推論することは、産業用機械に異常があるか否かを推論(検知又は予測)することであってよい。この場合、センサSCは、例えば、マイクロフォン、エンコーダ、及び環境センサの少なくともいずれかにより構成されてよい。センシングデータのサンプルは、モータのエンコーダ値、温度、動作音等により構成されてよい。 As another example, the object RC may be an industrial machine, and inferring the characteristics of the object RC may be inferring (detecting or predicting) whether or not the industrial machine has an abnormality. good. In this case, the sensor SC may be composed of, for example, at least one of a microphone, an encoder, and an environmental sensor. A sample of sensing data may be composed of a motor encoder value, temperature, operation sound, and the like.

他の一例として、対象物RCは、車両の外部に存在する物体であってよく、対象物RCに関する特徴を推論することは、車両外部の状況を推論することであってよい。この場合、センサSCは、例えば、カメラ、及び車載センサの少なくともいずれかにより構成されてよい。車両外部の状況を推論することは、例えば、車両外部に存在する物体の属性を推論すること、混雑状況を推論すること、事故のリスクを推論すること等であってよい。車両外部に存在する物体は、例えば、道路、信号機、障害物(人、物)等であってよい。車両外部に存在する物体の属性を推論することは、例えば、人又は車両の飛び出し、急発進、急停車、車線変更等のイベントの発生を推論することを含んでよい。 As another example, the object RC may be an object existing outside the vehicle, and inferring features about the object RC may be inferring a situation outside the vehicle. In this case, the sensor SC may be composed of at least one of a camera and an in-vehicle sensor, for example. Inferring the situation outside the vehicle may be, for example, inferring the attributes of objects existing outside the vehicle, inferring the congestion situation, inferring the risk of an accident, or the like. Objects existing outside the vehicle may be, for example, roads, traffic lights, obstacles (persons, objects), and the like. Inferring attributes of objects present outside the vehicle may include, for example, inferring the occurrence of an event such as a person or vehicle jumping out, starting abruptly, stopping abruptly, changing lanes, or the like.

他の一例として、対象物RCは、例えば、屋外、所定の屋内(例えば、ビニルハウス内等)の特定の場所に存在する物体であってよく、対象物RCに関する特徴を推論することは、特定の場所の状況を推論することであってよい。この場合、センサSCは、例えば、カメラ、マイクロフォン、及び環境センサの少なくともいずれかにより構成されてよい。具体例として、対象物RCは植物であってよく、特定の場所の状況を推論することは、植物の栽培状況を推論することであってよい。 As another example, the target object RC may be an object that exists in a specific location such as outdoors or a predetermined indoor location (for example, inside a vinyl house). It may be to infer the situation of the place of In this case, the sensor SC may be configured by at least one of a camera, a microphone, and an environment sensor, for example. As a specific example, the object RC may be a plant, and inferring the situation of a specific place may be inferring the cultivation situation of the plant.

他の一例として、対象物RCは、例えば、住宅内に存在する物体であってよく、対象物RCに関する特徴を推論することは、住宅内の状況を推論することであってよい。この場合、センサSCは、例えば、カメラ、マイクロフォン、環境センサ、及びホームセキュリティセンサの少なくともいずれかにより構成されてよい。 As another example, the object RC may be, for example, an object present in a house, and inferring features about the object RC may be inferring a situation inside the house. In this case, the sensors SC may for example consist of cameras, microphones, environmental sensors and/or home security sensors.

これらの点を除き、本変形例に係る通信システムは、上記実施形態と同様に構成されてよい。 Except for these points, the communication system according to this modification may be configured in the same manner as the above embodiment.

(サーバ装置)
本変形例では、サーバ装置1は、上記実施形態と同様の処理手順により、推論タスクの遂行及び再送指示を送信するように構成されてよい。すなわち、上記ステップS101では、制御部11は、圧縮されたセンシングデータ33Cを観測装置2Cから受信する。ステップS102では、制御部11は、推論モデル5Cを使用することで受信したセンシングデータ33Cに対して推論タスクを遂行した結果を取得する。推論モデル5Cは、与えられたセンシングデータに表れる特徴を推論するタスクを遂行する演算処理を実行可能に適宜構成されてよい。上記実施形態と同様に、推論モデル5Cは、機械学習により生成された訓練済みの機械学習モデルにより構成されてよい。
(Server device)
In this modification, the server device 1 may be configured to perform the inference task and transmit a retransmission instruction by the same processing procedure as in the above embodiment. That is, in step S101, the control unit 11 receives the compressed sensing data 33C from the observation device 2C. In step S102, the control unit 11 acquires the result of performing the inference task on the received sensing data 33C by using the inference model 5C. The inference model 5C may be appropriately configured to be capable of executing arithmetic processing for performing the task of inferring features appearing in given sensing data. As in the above embodiment, the inference model 5C may be configured by a trained machine learning model generated by machine learning.

ステップS103では、制御部11は、推論モデル5Cによる推論タスクの遂行結果の尤もらしさを算出する。ステップS104では、制御部11は、算出された尤もらしさの値に応じて、処理の分岐先を決定する。算出された尤もらしさが閾値未満である場合、制御部11は、ステップS105に処理を進める。一方、尤もらしさが閾値を超える場合、制御部11は、ステップS106に処理を進める。尤もらしさが閾値と等しい場合には、処理の分岐先は、いずれであってもよい。 In step S103, the control unit 11 calculates the likelihood of the execution result of the inference task by the inference model 5C. In step S104, the control unit 11 determines a branch destination of the process according to the calculated likelihood value. When the calculated likelihood is less than the threshold, the control unit 11 advances the process to step S105. On the other hand, when the likelihood exceeds the threshold, the control unit 11 advances the process to step S106. If the likelihood is equal to the threshold, the processing may branch to any destination.

ステップS105では、制御部11は、先の圧縮率よりも圧縮率を低くした上でセンシングデータを再送させる指示を観測装置2Cに対して送信する。その後、制御部11は、上記実施形態と同様に、ステップS101に処理を戻し、一連の処理を繰り返してよい。ステップS101では、制御部11は、先の圧縮率よりも低い圧縮率で圧縮されたセンシングデータ35Cを取得する。ステップS102では、制御部11は、推論モデル5Cを使用することでセンシングデータ35Cに対して推論タスクを遂行した結果を取得する。制御部11は、取得されたセンシングデータ35Cに関して、ステップS103以降の処理も実行してよい。 In step S105, the control unit 11 transmits an instruction to the observation device 2C to retransmit the sensing data with a lower compression rate than the previous compression rate. After that, the control unit 11 may return the process to step S101 and repeat the series of processes in the same manner as in the above-described embodiment. In step S101, the control unit 11 acquires the sensing data 35C compressed at a compression rate lower than the previous compression rate. In step S102, the control unit 11 acquires the result of performing the inference task on the sensing data 35C by using the inference model 5C. The control unit 11 may also perform the processes after step S103 for the acquired sensing data 35C.

ステップS106では、制御部11は、推論タスクの遂行結果に関する情報を出力する。出力先は、例えば、出力装置16、他のコンピュータの出力装置、制御対象装置、観測装置2C等であってよい。一例では、制御部11は、対象物RCに関する特徴を推論した結果をそのまま出力してもよい。他の一例では、制御部11は、推論結果に応じて任意の情報処理を実行してもよい。具体例として、上記対象人物RC1の健康状態を推論するケースでは、制御部11は、対象人物RC1の健康状態に異常があると判定される(例えば、所定の疾患の発症確率が高いと判定される)場合にそのことを知らせるための警告を出力してもよい。他の具体例として、上記運転者の状態を推論するケースでは、制御部11は、運転者の眠気度又は疲労度が高いと判定される場合に、運転の休憩を促すメッセージを通知する、自動運転から手動運転の切り替えを禁止する等の情報を出力してもよい。他の具体例として、上記車両外部の状況を推論するケースでは、制御部11は、推論される車両外部の状況に応じて車両に対する動作指令を決定し、決定された動作指令(例えば、人の飛び出しを検知した場合に、車両の一時停止を実行する)を出力してもよい。これらの具体例は、観測装置2Cに対して推論結果に関する情報を出力する場面で専ら適用されてよい。他の具体例として、産業用機械に異常があるか否かを推論するケースでは、制御部11は、産業用機械に異常がある又はその予兆があると判定される場合に、そのことを知らせるための警告を出力してもよい。 At step S106, the control unit 11 outputs information about the performance result of the inference task. The output destination may be, for example, the output device 16, an output device of another computer, a controlled device, an observation device 2C, or the like. In one example, the control unit 11 may directly output the result of inferring the features of the object RC. In another example, the control unit 11 may execute arbitrary information processing according to the inference result. As a specific example, in the case of inferring the health condition of the target person RC1, the control unit 11 determines that the health condition of the target person RC1 is abnormal (for example, it is determined that the probability of developing a predetermined disease is high). ), a warning may be output to inform you of this. As another specific example, in the case of inferring the state of the driver, the control unit 11 automatically sends a message prompting a driver to take a break when it is determined that the degree of drowsiness or fatigue of the driver is high. Information such as prohibiting switching from driving to manual driving may be output. As another specific example, in the case of inferring the situation outside the vehicle, the control unit 11 determines an operation command for the vehicle according to the inferred situation outside the vehicle, When the vehicle is detected to run out, the vehicle may be temporarily stopped) may be output. These specific examples may be exclusively applied when information about the inference result is output to the observation device 2C. As another specific example, in the case of inferring whether or not there is an abnormality in the industrial machine, if it is determined that the industrial machine has an abnormality or there is a sign of it, the control unit 11 notifies it. may output a warning for

(観測装置)
観測装置2Cのハードウェア構成及びソフトウェア構成は、上記実施形態に係るクライアント装置2と同様であってよい。本変形例では、観測装置2Cは、通信インタフェース又は外部インタフェースを介してセンサSCに接続されてよい。或いは、センサSCは他のコンピュータに接続され、観測装置2Cは、当該他のコンピュータに接続することで、センサSCからセンシングデータ31Cを取得可能に構成されてもよい。観測装置2Cは、センサSCを内蔵してもよい。
(observation device)
The hardware configuration and software configuration of the observation device 2C may be the same as those of the client device 2 according to the above embodiment. In this modification, the observation device 2C may be connected to the sensor SC via a communication interface or an external interface. Alternatively, the sensor SC may be connected to another computer, and the observation device 2C may be configured to be able to acquire the sensing data 31C from the sensor SC by connecting to the other computer. The observation device 2C may incorporate the sensor SC.

観測装置2Cは、上記クライアント装置2と同様の処理手順により、圧縮されたセンシングデータ(33C、35C)を送信する処理を実行してよい。すなわち、ステップS201では、観測装置2Cの制御部は、センシングデータ31Cを取得する。ステップS202では、制御部は、取得されたセンシングデータ31Cを圧縮することで、圧縮されたセンシングデータ33Cを生成する。ステップS203では、制御部は、ネットワーク4を介して圧縮されたセンシングデータ33Cをサーバ装置1に送信する。 The observation device 2C may perform processing for transmitting the compressed sensing data (33C, 35C) according to the same processing procedure as the client device 2 described above. That is, in step S201, the control unit of the observation device 2C acquires the sensing data 31C. In step S202, the control unit generates compressed sensing data 33C by compressing the acquired sensing data 31C. In step S<b>203 , the controller transmits the compressed sensing data 33</b>C to the server device 1 via the network 4 .

ステップS204では、制御部は、再送指示をサーバ装置1から受信したか否かに応じて、処理の分岐先を決定する。再送指示を受信した場合、制御部は、ステップS202に処理を戻し、ステップS202及びステップS203の処理を繰り返し実行する。ステップS202では、制御部は、先の圧縮率よりも低い圧縮率でセンシングデータ31Cを再度圧縮することで、圧縮されたセンシングデータ35Cを生成する。ステップS203では、制御部は、ネットワーク4を介して再度圧縮されたセンシングデータ35Cをサーバ装置1に送信する。他方、再送指示を受信しなかった場合、制御部は、データ送信に関する処理手順を終了する。 In step S<b>204 , the control unit determines a branch destination of the process depending on whether or not a retransmission instruction has been received from the server device 1 . When the retransmission instruction is received, the control unit returns the process to step S202 and repeats the processes of steps S202 and S203. In step S202, the control unit generates compressed sensing data 35C by compressing sensing data 31C again at a compression rate lower than the previous compression rate. In step S<b>203 , the control unit transmits the recompressed sensing data 35</b>C to the server device 1 via the network 4 . On the other hand, if the resend instruction is not received, the control unit terminates the procedure for data transmission.

(特徴)
第3具体例によれば、観測装置2Cからサーバ装置1にセンシングデータを送信し、センシングデータに対して推論タスクを遂行する場面で、ネットワーク4のトラヒックを低減しつつ、推論モデル5Cにより遂行される推論タスクの精度を保証することができる。センシングデータも上記画像データ等と同様に比較的にデータ量が大きく、トラヒックを圧迫する原因になり得る。そのため、特に有効に当該効果を発揮することができる。
(feature)
According to the third specific example, when sensing data is transmitted from the observation device 2C to the server device 1 and an inference task is performed on the sensing data, traffic on the network 4 is reduced while the inference model 5C performs the task. It can guarantee the accuracy of the inference task. Sensing data, like the image data and the like, has a relatively large amount of data and can be a cause of heavy traffic. Therefore, the effect can be exhibited particularly effectively.

<4.2>
上記実施形態では、クライアント装置2は、ステップS204の処理により、再送指示をサーバ装置1から受信したことに応じて、先の圧縮率よりも低い圧縮率で圧縮された対象データ35を生成している。しかしながら、再送する指示がデータ通信装置で発生することに対応して、先の圧縮率よりも低い圧縮率で対象データを再度圧縮することは、このような形態に限られなくてよい。他の一例では、クライアント装置2は、再送指示をサーバ装置1から受信する前に、先の圧縮率よりも低い圧縮率で圧縮された対象データ35の生成を開始してもよい。この場合、圧縮された対象データ35の生成は、再送指示の受信までに完了していなくてもよい。また、この圧縮された対象データ35を予め生成する処理は、サーバ装置1からの準備指示に応じて実行されてよい。
<4.2>
In the above embodiment, the client device 2 generates the target data 35 compressed at a compression rate lower than the previous compression rate in response to receiving the retransmission instruction from the server device 1 through the process of step S204. there is However, recompressing the target data at a lower compression rate than the previous compression rate in response to the generation of the retransmission instruction in the data communication device need not be limited to such a form. As another example, the client device 2 may start generating the target data 35 compressed at a compression rate lower than the previous compression rate before receiving the retransmission instruction from the server device 1 . In this case, generation of the compressed target data 35 does not have to be completed by the time the retransmission instruction is received. Further, the process of generating the compressed target data 35 in advance may be executed in response to a preparation instruction from the server device 1 .

図12は、本変形例に係るサーバ装置1のソフトウェア構成の一例を模式的に示す。本変形例では、サーバ装置1は、推論プログラム81を実行することで、ソフトウェアモジュールとして準備指示部116を更に備えるコンピュータとして動作する。準備指示部116は、算出された尤もらしさが閾値未満である場合の再送させる指示に備えさせるために、再送させる指示を送信する前に、圧縮率を低くした対象データ35を生成させる準備指示をクライアント装置2に対して送信するように構成される。 FIG. 12 schematically shows an example of the software configuration of the server device 1 according to this modification. In this modification, the server device 1 operates as a computer further including a preparation instructing unit 116 as a software module by executing the inference program 81 . Before transmitting the retransmission instruction, preparation instruction section 116 issues a preparation instruction to generate target data 35 with a reduced compression rate in order to prepare for the retransmission instruction when the calculated likelihood is less than the threshold. It is configured to transmit to the client device 2 .

上記処理手順において、制御部11は、ステップS105の処理を実行する前の任意のタイミングで当該準備指示をクライアント装置2に対して送信してよい。一例として、クライアント装置2が、サーバ装置1に対して異なる複数件の対象データを送信する場合を想定する。この場合に、制御部11は、ステップS101の処理によりクライアント装置2から初回に圧縮された対象データ33を取得したタイミングで、クライアント装置2に準備指示を送信してもよい。クライアント装置2は、初回に送信した対象データ33の他に、後のタイミングで送信する他の対象データにも、受信した準備指示を適用してもよい。或いは、制御部11は、運用の初期段階において、ステップS101の処理の前に、クライアント装置2に対して準備指示を送信してもよい。 In the processing procedure described above, the control unit 11 may transmit the preparation instruction to the client device 2 at any timing before executing the processing of step S105. As an example, assume that the client device 2 transmits a plurality of different pieces of target data to the server device 1 . In this case, the control unit 11 may transmit a preparation instruction to the client device 2 at the timing when the first compressed target data 33 is acquired from the client device 2 by the process of step S101. The client device 2 may apply the received preparation instruction to other target data to be transmitted at a later timing in addition to the target data 33 transmitted at the first time. Alternatively, the control unit 11 may transmit a preparation instruction to the client device 2 in the initial stage of operation, before the process of step S101.

これに対応して、クライアント装置2のデータ圧縮部212は、サーバ装置1からの対象データを再送する指示を受信する前に、当該再送指示に備えて、先の圧縮率よりも低い圧縮率で対象データ31を再度圧縮する処理の実行を開始するように構成されてよい。上記処理手順において、制御部21は、ステップS204の処理を実行する前に、繰り返しのステップS202の処理の実行を開始してよい。そして、制御部21は、再送指示をサーバ装置1から受信したことに応じて、ステップS204の処理により繰り返しを選択し、繰り返しのステップS203の処理により、生成された圧縮済みの対象データ35をサーバ装置1に送信してもよい。 In response to this, before receiving the instruction to resend the target data from the server apparatus 1, the data compression unit 212 of the client device 2 compresses data at a lower compression rate than the previous compression rate in preparation for the resend instruction. It may be configured to start execution of the process of compressing the target data 31 again. In the above processing procedure, the control unit 21 may start repeatedly executing the process of step S202 before executing the process of step S204. Then, in response to receiving the retransmission instruction from the server device 1, the control unit 21 selects repetition through the process of step S204, and transmits the generated compressed target data 35 to the server through the repetition process of step S203. It may be sent to device 1 .

尤もらしさに応じて圧縮率を低下させる程度が決定される場合、制御部21は、候補となる複数の圧縮率で対象データ31を圧縮してもよい。尤もらしさと圧縮率を低下させる程度との対応関係が規則により与えられている場合、制御部21は、規則に従って、候補となる複数の圧縮率を決定してもよい。そして、制御部21は、サーバ装置1から再送指示を受け取った後に、複数の候補の中から対応する圧縮率の対象データ35を選択し、選択された対象データ35をサーバ装置1に送信してもよい。 When the extent to which the compression rate is lowered is determined according to the likelihood, the control unit 21 may compress the target data 31 at a plurality of candidate compression rates. When the correspondence relationship between the likelihood and the extent to which the compression rate is lowered is given by a rule, the control unit 21 may determine a plurality of candidate compression rates according to the rule. Then, after receiving the retransmission instruction from the server device 1, the control unit 21 selects the target data 35 with the corresponding compression rate from among the plurality of candidates, and transmits the selected target data 35 to the server device 1. good too.

なお、クライアント装置2における圧縮された対象データ35の準備は、サーバ装置1からの準備指示に依らずに実行されてもよい。すなわち、サーバ装置1が準備指示部116を備えていない場合にも、クライアント装置2は、再送する指示を受信する前に、先の圧縮率よりも低い圧縮率で対象データ31を再度圧縮する処理の実行を開始してよい。上記各具体例の各装置2A-2Cも同様に、再送指示を受信する前に、先の圧縮率よりも圧縮率の低い圧縮されたデータ35A-35Cを生成してよい。 The preparation of the compressed target data 35 in the client device 2 may be executed without depending on the preparation instruction from the server device 1 . That is, even if the server device 1 does not have the preparation instruction unit 116, the client device 2 performs processing to re-compress the target data 31 at a compression rate lower than the previous compression rate before receiving the retransmission instruction. may start executing. Each of the devices 2A-2C in each of the above embodiments may likewise generate compressed data 35A-35C with a lower compression rate than the previous compression rate before receiving the retransmission indication.

本変形例によれば、再送指示が与えられる前に、クライアント装置2に対象データ31の圧縮処理を予め実行させることで、圧縮された対象データ35を送信する(すなわち、対象データを再送する)までにかかる時間を低減することができる。再送指示を受信するまでに圧縮処理が完了している場合には、圧縮処理に起因する遅延を無くすことができる。これにより、サーバ装置1が圧縮された対象データを再度取得し、対象データに対する推論モデル5による推論タスクの遂行が再度実行されるまでにかかる時間を短縮することができる。 According to this modification, the compressed target data 35 is transmitted (that is, the target data is retransmitted) by causing the client device 2 to perform compression processing of the target data 31 in advance before the retransmission instruction is given. can reduce the time it takes. If the compression process is completed by the time the retransmission instruction is received, the delay caused by the compression process can be eliminated. As a result, it is possible to shorten the time required for the server device 1 to re-acquire the compressed target data and for the inference model 5 to perform the inference task on the target data again.

<4.3>
上記実施形態では、サーバ装置1は、推論モデル5を備えて、対象データに対して推論タスクを遂行する処理を実行するように構成されている。しかしながら、データ通信装置の構成は、このような例に限定されなくてよい。対象データに対して推論モデル5により推論タスクを遂行する処理は他のコンピュータにより実行されてよく、データ通信装置は、他のコンピュータから推論タスクの遂行結果を取得してもよい。
<4.3>
In the above embodiment, the server device 1 is provided with the inference model 5 and is configured to execute processing for performing an inference task on target data. However, the configuration of the data communication device need not be limited to such an example. The process of performing the inference task on the target data by the inference model 5 may be executed by another computer, and the data communication device may acquire the performance result of the inference task from the other computer.

図13は、本変形例に係るデータ通信装置の構成の一例を模式的に示す。本変形例では、サーバ装置側に中継装置101及び推論装置102が設けられている。中継装置101及び推論装置102のハードウェア構成は、上記サーバ装置1と同様に構成されてよい。中継装置101は、上記サーバ装置1と同様に、ネットワーク4を介してクライアント装置2に接続されている。また、中継装置101は、任意のネットワークにより推論装置102に接続されている。 FIG. 13 schematically shows an example of the configuration of a data communication device according to this modification. In this modification, a relay device 101 and an inference device 102 are provided on the server device side. The hardware configurations of the relay device 101 and the inference device 102 may be configured in the same manner as the server device 1 described above. The relay device 101 is connected to the client device 2 via the network 4 in the same manner as the server device 1 described above. Also, the relay device 101 is connected to the inference device 102 via an arbitrary network.

中継装置101は、クライアント装置2から受信した対象データ(33、35)を推論装置102に転送し、推論モデル5の演算処理を実行する以外の上記サーバ装置1の処理を実行するように構成されてよい。推論装置102は、推論モデル5を備え、中継装置101から転送された対象データ(33、35)に対して推論タスクを遂行する処理を実行するように構成されてよい。上記処理手順のステップS102の処理において、中継装置101(結果取得部112)は、圧縮された対象データ(33、35)を推論装置102に転送し、推論装置102から推論モデル5による推論タスクの遂行結果を取得してもよい。本変形例に係る中継装置101は、データ通信装置の一例である。 The relay device 101 is configured to transfer the target data (33, 35) received from the client device 2 to the inference device 102, and to execute the processing of the server device 1 other than the arithmetic processing of the inference model 5. you can The inference device 102 may include the inference model 5 and may be configured to execute processing for performing an inference task on the target data (33, 35) transferred from the relay device 101. FIG. In the processing of step S102 of the above procedure, the relay device 101 (result acquisition unit 112) transfers the compressed target data (33, 35) to the inference device 102, and the inference task by the inference model 5 from the inference device 102. You may also obtain performance results. The relay device 101 according to this modification is an example of a data communication device.

中継装置101は、再送指示プログラムを保持してよく、当該再送指示プログラムに従って、上記各処理を実行するように構成されてよい。再送指示プログラムは、上記推論プログラム81に含まれる推論モデル5の演算処理を実行する命令を他のコンピュータ(推論装置102)から推論結果を取得する命令に置き換えることで構成されてよい。本変形例によれば、クライアント装置2及び中継装置101の間で、ネットワーク4のトラヒックを低減しつつ、推論モデル5により遂行される推論タスクの精度を保証することができる。 The relay device 101 may hold a retransmission instruction program, and may be configured to execute each of the above processes according to the retransmission instruction program. The retransmission instruction program may be configured by replacing the instruction for executing the arithmetic processing of the inference model 5 included in the inference program 81 with an instruction for acquiring the inference result from another computer (the inference device 102). According to this modification, the accuracy of the inference task performed by the inference model 5 can be guaranteed while reducing the traffic on the network 4 between the client device 2 and the relay device 101 .

<4.4>
上記実施形態では、サーバ装置1は、推論モデル5により得られる推論タスクの遂行結果の不確定性に基づいて尤もらしさを算出している。しかしながら、遂行結果の尤もらしさを算出する方法は、このような例に限定されなくてよい。他の一例では、推論モデルは、機械学習により、推論タスクの遂行結果と共に、遂行結果の尤もらしさを出力するように訓練されていてもよい。これに応じて、尤もらしさを算出することは、推論モデルの演算処理を実行した結果として、尤もらしさに対応する出力を得ることにより構成されてよい。
<4.4>
In the above embodiment, the server device 1 calculates the likelihood based on the uncertainty of the performance result of the inference task obtained by the inference model 5 . However, the method of calculating the likelihood of performance results need not be limited to such an example. In another example, the inference model may be trained by machine learning to output the performance results of the inference task as well as the likelihood of the performance results. Correspondingly, computing the plausibility may comprise obtaining an output corresponding to the plausibility as a result of performing the computation of the inference model.

なお、上記実施形態では、推論モデルの演算処理は、サーバ装置1において実行されてよい。上記中継装置101及び推論装置102の変形例では、推論モデルの演算処理は、推論装置102において実行されてよい。すなわち、尤もらしさを算出することは、推論モデルの演算処理を実行した結果を得ることを含んでいればよく、推論モデルの演算処理を実行することまでは含んでいなくてもよい。 It should be noted that in the above-described embodiment, the arithmetic processing of the inference model may be executed in the server device 1 . In a modification of the relay device 101 and the reasoning device 102 described above, the reasoning model arithmetic processing may be executed in the reasoning device 102 . In other words, calculating the likelihood may include obtaining the result of executing the arithmetic processing of the inference model, and may not include executing the arithmetic processing of the inference model.

図14は、本変形例に係る推論モデル500の構成の一例を模式的に示す。本変形例に係る推論モデル500は、上記推論モデル5の出力層53と異なる構成を有する出力層530を備える点を除き、上記推論モデル5と同様に構成されてよい。本変形例に係る推論モデル500の出力層530は、2つの部分(531、533)に分かれている。第1部分531は、推論結果を出力するように構成されるノードを含んでいる。第1部分531は、上記推論モデル5の出力層53と同様に動作するように構成されてよい。 FIG. 14 schematically shows an example of the configuration of an inference model 500 according to this modified example. The inference model 500 according to this modification may be configured in the same manner as the inference model 5 described above, except that it includes an output layer 530 having a configuration different from that of the output layer 53 of the inference model 5 described above. The output layer 530 of the inference model 500 according to this modification is divided into two parts (531, 533). A first portion 531 includes nodes configured to output inference results. The first part 531 may be configured to operate similarly to the output layer 53 of the inference model 5 above.

一方、第2部分533は、推論結果の尤もらしさを出力するように構成されるノードを含んでいる。一例では、第2部分533のノードの活性化関数にはソフトマックス関数が用いられてよく、これにより、第2部分533のノードは、[0,1]の範囲で尤もらしさを出力するように構成されてよい。第2部分533に含まれるノードの数は、実施の形態に応じて適宜決定されてよい。一例では、第2部分533は1つのノードを含むように構成されてよく、当該ノードは、推論結果全体の尤もらしさを出力するように構成されてよい。他の一例では、推論タスクがクラス識別である上記ケースの場面において、第2部分533は、識別するクラスの数に対応する数のノードを含むように構成されてよく、各ノードは、対応するクラスの識別結果の尤もらしさを出力するように構成されてよい。なお、図14の例では、第1部分531及び第2部分533の階層は同一であるが、第1部分531及び第2部分533の階層は異なっていてもよい。 The second part 533, on the other hand, contains nodes configured to output the likelihood of the inference result. In one example, the activation function for the nodes in the second portion 533 may use a softmax function, such that the nodes in the second portion 533 output likelihoods in the range [0, 1]. may be configured. The number of nodes included in the second portion 533 may be determined as appropriate according to the embodiment. In one example, the second portion 533 may be configured to include one node, which may be configured to output the likelihood of the overall inference result. As another example, in the context of the above case where the reasoning task is class identification, the second part 533 may be configured to contain a number of nodes corresponding to the number of classes to identify, each node corresponding to a corresponding It may be configured to output the likelihood of class identification results. In the example of FIG. 14, the layers of the first portion 531 and the layers of the second portion 533 are the same, but the layers of the layers of the first portion 531 and the layers of the second portion 533 may differ.

機械学習において、第1部分531に対する正解ラベルは、上記推論モデル5と同様に構成されてよい。一方、第2部分533に対する正解ラベルは、尤もらしさの最大値(例えば、上記ソフトマックス関数のケースでは、「1」)を示すように構成されてよい。その他の部分は、上記推論モデル5と同様であってよい。この機械学習により、第1部分531から推論タスクの遂行結果を出力し、第2部分533から遂行結果の尤もらしさを出力するように推論モデル5を訓練することができる。制御部11は、上記ステップS103の処理において、推論結果の尤もらしさを第2部分533から取得することができる。この方法によっても、尤もらしさを適正に算出することができ、その結果、推論モデル500により遂行される推論タスクの精度を適切に保証することができる。 In machine learning, the correct label for the first part 531 may be configured in the same way as the inference model 5 described above. On the other hand, the correct answer label for the second portion 533 may be configured to indicate the maximum likelihood value (eg, "1" in the case of the softmax function above). Other parts may be the same as inference model 5 above. By this machine learning, the inference model 5 can be trained to output the performance results of the inference task from the first part 531 and the likelihood of the performance results from the second part 533 . The control unit 11 can acquire the plausibility of the inference result from the second part 533 in the process of step S103. This method also allows the plausibility to be properly calculated and, as a result, the accuracy of the inference task performed by the inference model 500 to be properly guaranteed.

他の一例では、サーバ装置1は、推論モデル5の機械学習に使用された訓練データを保持してもよい。機械学習により生成される訓練済みの推論モデル5は、機械学習に使用された訓練データの範囲で推論タスクを適切に遂行する能力を獲得する。そのため、与えられた対象データが訓練データの分布から外れている場合、当該対象データに対する推論モデル5の推論精度は低くなり、推論結果の尤もらしさも低くなる傾向にある。そこで、制御部11は、上記ステップS103の処理において、訓練データの分布と対象データとの距離を算出し、算出された距離に応じて推論結果の尤もらしさを導出してもよい。制御部11は、算出された距離が大きいほど尤もらしさを低く評価し、算出された距離が小さいほど尤もらしさを高く評価してもよい。この方法によっても、尤もらしさを適正に算出することができ、その結果、推論モデル5により遂行される推論タスクの精度を適切に保証することができる。なお、上記各変形例に係る推論モデル5A-5Cによる推論タスクの遂行結果の尤もらしさを算出する場合も同様に上記他の方法が採用されてよい。 In another example, the server device 1 may hold training data used for machine learning of the inference model 5 . A trained inference model 5 generated by machine learning acquires the ability to perform inference tasks well within the range of training data used for machine learning. Therefore, when the given target data is out of the training data distribution, the inference accuracy of the inference model 5 for the target data tends to be low, and the likelihood of the inference result tends to be low. Therefore, in the process of step S103, the control unit 11 may calculate the distance between the training data distribution and the target data, and derive the likelihood of the inference result according to the calculated distance. The control unit 11 may evaluate the plausibility lower as the calculated distance increases, and evaluate the plausibility higher as the calculated distance decreases. This method can also properly calculate the likelihood, and as a result, can properly guarantee the accuracy of the inference task performed by the inference model 5 . It should be noted that the above other method may also be employed in the case of calculating the likelihood of the performance result of the inference task by the inference models 5A-5C according to the above modifications.

<4.5>
上記実施形態及び各変形例では、推論モデル5(5A-5C、500)は、全結合型ニューラルネットワークにより構成されている。しかしながら、推論モデル5(5A-5C、500)を構成するニューラルネットワークの種類は、このような例に限定されなくてよい。他の一例では、推論モデル5(5A-5C、500)は、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク、アテンション機構を備えるニューラルネットワーク等により構成されてよい。推論モデル5(5A-5C、500)を構成するニューラルネットワークは、例えば、畳み込み層、プーリング層、正規化層、ドロップアウト層等の他の種類の層を含んでもよい。
<4.5>
In the above embodiments and modifications, the inference model 5 (5A-5C, 500) is composed of a fully connected neural network. However, the type of neural network that constitutes inference model 5 (5A-5C, 500) need not be limited to such an example. In another example, the inference model 5 (5A-5C, 500) may consist of a convolutional neural network, a recurrent neural network, a neural network with an attention mechanism, or the like. The neural network that makes up the inference model 5 (5A-5C, 500) may include other types of layers, such as convolution layers, pooling layers, normalization layers, dropout layers, and the like.

また、上記実施形態及び各変形例では、推論モデル5(5A-5C、500)には、機械学習モデルとしてニューラルネットワークが用いられている。しかしながら、推論モデル5(5A-5C、500)に用いられる機械学習モデルは、ニューラルネットワークに限られなくてよく、実施の形態に応じて適宜選択されてよい。他の一例として、推論モデル5(5A-5C、500)は、サポートベクタマシン、決定木、多変量解析(例えば、フィッシャー判別分析、正準相関分析等)により得られるモデル等の他の機械学習モデルにより構成されてよい。推論タスクを遂行し、かつ推論結果の尤もらしさを評価可能であれば、推論モデル5(5A-5C)には、機械学習モデル以外のモデルが採用されてもよい。 In addition, in the above embodiments and modifications, the inference model 5 (5A-5C, 500) uses a neural network as a machine learning model. However, the machine learning model used for inference model 5 (5A-5C, 500) is not limited to the neural network, and may be appropriately selected according to the embodiment. As another example, the inference model 5 (5A-5C, 500) can be derived from other machine learning models such as support vector machines, decision trees, multivariate analysis (e.g., Fisher discriminant analysis, canonical correlation analysis, etc.). It may be configured by a model. Models other than machine learning models may be employed as the inference model 5 (5A-5C) as long as they can perform the inference task and evaluate the plausibility of the inference results.

§5 実験例
(I)第1実験例
第1実験例では、数値シミュレーションを用いて、対象データの圧縮が推論タスクの精度に及ぼす影響について検証した。対象データには画像データを採用し、推論タスクには画像認識を採用した。クライアント装置にはIoT装置を想定し、サーバ装置にはエッジサーバを想定した。画像圧縮の手法には、ダウンサンプリングを採用した。圧縮率の指標にはPSNRを採用した。
§5 Experimental Example (I) First Experimental Example In the first experimental example, numerical simulation was used to verify the effect of target data compression on the accuracy of the inference task. Image data was adopted as the target data, and image recognition was adopted as the reasoning task. An IoT device is assumed for the client device, and an edge server is assumed for the server device. Downsampling was adopted as the image compression method. PSNR was adopted as an index of compression rate.

図15は、第1実験例に係る数値シミュレーションの構成を示す。なお、PSNRを計算するために、サーバ装置は、アップサンプラを使用して、ダウンサンプリング画像を圧縮前の画像と同じ解像度になるよう調整するように構成した。画像データには、ILSVRC2012の検証用データセット(ImageNet)を使用した。ダウンサンプラによるダウンサンプリングは、16画素(4×4)を用いたバイキュービック法で行うように構成した。バイキュービック法の計算式(式1)を以下に示す。 FIG. 15 shows the configuration of the numerical simulation according to the first experimental example. Note that in order to calculate the PSNR, the server device was configured to use an upsampler to adjust the downsampled image to have the same resolution as the image before compression. The image data used was the ILSVRC2012 validation dataset (ImageNet). Down-sampling by the down-sampler was configured to be performed by a bicubic method using 16 pixels (4×4). The calculation formula (formula 1) of the bicubic method is shown below.

Figure 2022127144000002
ここで、xは画素間の距離を示し、aは任意の係数である。
Figure 2022127144000002
where x indicates the distance between pixels and a is an arbitrary coefficient.

バイキュービック法の計算及びPSNRの計算には、OpenCVライブラリを使用した。また、推論モデル(画像認識モデル)には、OpenVINO(Intel Corporation, "Openvino toolkit," 2019. https://docs.openvinotoolkit.org/latest/index.html.)で事前学習した画像分類モデルであるAlexNetを採用した。 The OpenCV library was used for bicubic calculation and PSNR calculation. In addition, the inference model (image recognition model) is an image classification model pre-trained with OpenVINO (Intel Corporation, "Openvino toolkit," 2019. https://docs.openvinotoolkit.org/latest/index.html.) Adopted AlexNet.

次に、上記検証用データセットに含まれる画像それぞれの解像度が異なっているため、AlexNetの入力層のサイズ(227×227)に合わせて圧縮された画像の解像度を調整した。具体的には、リサイズフィルタにより、画像の短辺を227画素に拡大又は縮小し、長辺を入力層のサイズに合わせてトリミングすることで、各画像の解像度を調整した。数値シミュレーションでは、解像度を調整した後の画像をAlexNetの入力層に入力し、AlexNetの順伝播の演算処理を実行することで、画像認識のタスクを遂行した。そして、画像認識のタスクの遂行結果と各画像に付与された正解ラベルとを比較し、認識精度を算出した。第1実験例では、圧縮率に応じたTop-kの認識精度Rkを評価指標に採用した。AlexNetの出力値をC0とし、集合Ckを{Ck⊂C0|Top k in C0}とする。この場合に、Top-kの認識精度Rkは、以下の式2により計算することができる。第1実験例では、Top-1及びTop-5の認識精度を算出した。 Next, since the resolution of each image included in the verification dataset is different, the resolution of the compressed image was adjusted to match the size of the input layer of AlexNet (227×227). Specifically, the resolution of each image was adjusted by enlarging or reducing the short side of the image to 227 pixels using a resizing filter and trimming the long side to match the size of the input layer. In the numerical simulation, the image recognition task was performed by inputting the image after adjusting the resolution to the input layer of AlexNet and executing the arithmetic processing of forward propagation of AlexNet. Then, the performance results of the image recognition task and the correct label assigned to each image were compared to calculate the recognition accuracy. In the first experimental example, the recognition accuracy R k of Top-k corresponding to the compression rate was used as an evaluation index. Let the output value of AlexNet be C 0 and the set C k be {C k ⊂C 0 |Top k in C 0 }. In this case, the recognition accuracy R k of Top-k can be calculated by Equation 2 below. In the first experimental example, the recognition accuracy of Top-1 and Top-5 was calculated.

Figure 2022127144000003
Figure 2022127144000003

図16は、第1実験例に係るダウンサンプリングレートに応じたPSNRの平均値及び分散値のシミュレーション結果を示す。図17及び図18は、第1実験例におけるTop-1及びTop-5の認識精度及び認識誤り率のシミュレーション結果を示す。各図に示されるとおり、ダウンサンプリングレートの増加に伴い、PSNR及び認識精度は低下し、認識誤り率は増加することが分かった。圧縮率が50%を超えると、認識精度の低下が顕著となることが分かった。 FIG. 16 shows simulation results of PSNR average values and variance values according to the downsampling rate according to the first experimental example. 17 and 18 show simulation results of recognition accuracy and recognition error rate for Top-1 and Top-5 in the first experimental example. As shown in each figure, it was found that the PSNR and recognition accuracy decreased and the recognition error rate increased as the downsampling rate increased. It was found that when the compression ratio exceeded 50%, the recognition accuracy decreased significantly.

(II)第2実験例
第2実験例では、無線ネットワークのシミュレータを用いて、上記実施形態の方法によるトラヒックの削減をシミュレートし、スループット及び遅延の特性を検証した。
(II) Second Experimental Example In the second experimental example, a wireless network simulator was used to simulate traffic reduction by the method of the above embodiment, and throughput and delay characteristics were verified.

第2実験例では、10台のIoT装置(クライアント装置)がネットワークに接続されていると仮定し、そのうちの5台のIoT装置は、アクセスポイント(Access Point:AP)に画像データを送信するように構成した。画像トラヒックの到着間隔は指数分布に基づいてランダムに決定し、到着平均間隔を0.2秒に設定した。画像トラヒックが生成されると、IoT装置は、ILSVRC2012の検証用データセットから画像を選択し、選択した画像を送信するように構成した。なお、ILSVRC2012の検証用データセットの画像サイズは、スマートフォン等のユーザ端末で撮影することで得られる実用的な画像サイズよりも小さい。そこで、第2実験例では、実際の環境に近付けるために、各画像のデータサイズを単純に5倍し、更に連続して同じ画像を3枚送信するトラヒックを生成するように設計した。IoT装置は、ダウンサンプラを用いて画像データを圧縮するように構成した。また、AP上のエッジサーバ(サーバ装置)において、AlexNetを用いて画像分類モデル(推論モデル)を構築した。残りのIoT装置は、バックグラウンドのトラヒックを再現するために、連続的にダミートラヒックを送信するように構成した。各IoT装置は、0.05秒毎にトラヒックを生成するように構成した。トラヒックのデータサイズは、250Kバイトに設定した。1回のシミュレーションの時間を60秒に設定し、試行回数を10回に設定した。すなわち、合計10分間、無線ネットワークのシミュレーションを行った。 In the second experimental example, it is assumed that 10 IoT devices (client devices) are connected to the network, and 5 IoT devices among them are configured to transmit image data to an access point (AP). configured to The image traffic arrival interval was randomly determined based on an exponential distribution, and the average arrival interval was set to 0.2 seconds. Once the image traffic was generated, the IoT device was configured to select images from the ILSVRC2012 validation dataset and transmit the selected images. Note that the image size of the ILSVRC2012 validation dataset is smaller than the practical image size that can be obtained by shooting with a user terminal such as a smartphone. Therefore, in the second experimental example, in order to approximate the actual environment, the data size of each image is simply multiplied by 5, and the traffic is designed to continuously transmit three identical images. The IoT device was configured to compress image data using a downsampler. Also, an image classification model (inference model) was constructed using AlexNet in the edge server (server device) on the AP. The remaining IoT devices were configured to continuously transmit dummy traffic to reproduce background traffic. Each IoT device was configured to generate traffic every 0.05 seconds. The data size of traffic was set to 250 Kbytes. The time for one simulation was set to 60 seconds and the number of trials was set to 10. That is, the radio network was simulated for a total of 10 minutes.

シミュレートする無線ネットワークシステムには、IEEE802.11nをベースとした無線LANシステムを採用した。すなわち、マルチアクセス制御プロトコルとしてCSMA/CA(Carrier Sense Multiple Access with Collision Avoidance) を採用した。以下の表1に無線LANシステムのパラメータを示す。 A wireless LAN system based on IEEE802.11n was adopted as the wireless network system to be simulated. That is, CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance) was adopted as a multi-access control protocol. Table 1 below shows the parameters of the wireless LAN system.

Figure 2022127144000004
Figure 2022127144000004

フレームフォーマットには、グリーンフィールドモードを採用した。40MHz伝送のオプション及びショートガードインターバルを使用した場合を想定して、PHYレートは、300Mbpsに設定した。通信環境は静的であると仮定し、PHYレートを固定した。無線通信におけるパケットエラーの主な要因は、IoT装置からの信号のパケット衝突、伝送中のパケットロス、キャリアセンスによる送信待機時間である。そこで、本シミュレータでは、パケット送信のタイムアウトを10msと仮定し、パケットの再送回数を10回に設定した。すなわち、本シミュレータでは、上記実施形態の方法による再送制御の他に、無線ネットワークで一般的に採用されているパケットの再送制御を用意した。 Greenfield mode was adopted for the frame format. The PHY rate was set to 300 Mbps, assuming the option of 40 MHz transmission and a short guard interval. A static communication environment was assumed and the PHY rate was fixed. The main causes of packet errors in wireless communication are packet collision of signals from IoT devices, packet loss during transmission, and transmission waiting time due to carrier sense. Therefore, in this simulator, the packet transmission timeout is assumed to be 10 ms, and the number of packet retransmissions is set to 10 times. That is, in this simulator, in addition to the retransmission control by the method of the above embodiment, packet retransmission control that is generally employed in wireless networks is prepared.

IoT装置における画像の圧縮率は、PSNRの閾値によって決定した。上記第1実験例から、圧縮率が50%を超えると、認識精度の低下が顕著となることが分かった。そのため、圧縮率が50%前後の値をPSNRの閾値に設定した。具体的には、PSNRの閾値は25dBに設定した。また、ILSVRC2012の検証用データセットには正解ラベルが付与されているため、各画像に対する認識精度を算出することができる。そこで、第2実験例では、画像の認識精度を尤もらしさの指標に採用した。上記PSNRの閾値を決定したのと同じ理由により、Top-1の認識精度(尤もらしさ)の閾値を29.9%に設定し、Top-5の認識精度(尤もらしさ)の閾値を56.4%に設定した。上記実施形態の方法による画像の再送回数の上限は2回に設定した。1回目の画像の再送では、基準となる圧縮率を1回目の送信時から30%下げ、2回目の画像の再送では、圧縮処理をせずに元の画像をそのまま送信するように設定した。エッジサーバの処理にかかる時間は、認識処理、画像の再送指示、再送された画像の受信、及び伝搬にかかる時間の合計で10msと仮定した。これにより、実施例に係る通信システムを構築した。 The image compression ratio in the IoT device was determined by the PSNR threshold. From the above-described first experimental example, it was found that when the compression rate exceeds 50%, the reduction in recognition accuracy becomes significant. Therefore, a value with a compression rate of around 50% is set as the PSNR threshold. Specifically, the PSNR threshold was set to 25 dB. In addition, since the correct label is assigned to the validation data set of ILSVRC2012, the recognition accuracy for each image can be calculated. Therefore, in the second experimental example, the image recognition accuracy is adopted as an index of plausibility. For the same reason that the PSNR threshold was determined, the threshold for Top-1 recognition accuracy (likelihood) was set to 29.9%, and the threshold for Top-5 recognition accuracy (likelihood) was set to 56.4. set to %. The upper limit of the number of retransmissions of an image by the method of the above embodiment is set to two. In the first retransmission of the image, the standard compression ratio is lowered by 30% from the first transmission, and in the second retransmission of the image, the original image is transmitted as it is without compression processing. It is assumed that the processing time of the edge server is 10 ms in total for recognition processing, image retransmission instruction, reception of the retransmitted image, and propagation. Thus, a communication system according to the embodiment was constructed.

一方、比較例に係る通信システムは、パケットの再送制御のみを実行するようにし、上記実施形態の方法による再送制御を実行しないように構成した。また、比較例に係る通信システムでは、IoT装置は、画像を圧縮せずにそのままエッジサーバに送信するように構成した。比較例に係る通信システムのその他の条件は、実施例に係る通信システムと同様とした。 On the other hand, the communication system according to the comparative example is configured to perform only packet retransmission control and not to perform retransmission control according to the method of the above embodiment. Also, in the communication system according to the comparative example, the IoT device is configured to transmit the image as it is to the edge server without compressing the image. Other conditions of the communication system according to the comparative example were the same as those of the communication system according to the embodiment.

評価項目には、認識誤り率、画像の再送回数、ダミートラヒックのスループット、ダミートラヒックの待ち時間、及び画像トラヒックの待ち時間の5つの項目を採用した。各項目について、実施例(Top-1、Top-5)及び比較例(Conv.)のシミュレーションを行った。なお、スループットThは、以下の式3により計算した。 As evaluation items, five items were adopted: recognition error rate, number of image retransmissions, throughput of dummy traffic, waiting time of dummy traffic, and waiting time of image traffic. For each item, simulations were performed for Examples (Top-1, Top-5) and Comparative Example (Conv.). Note that the throughput Th was calculated by Equation 3 below.

Figure 2022127144000005
ここで、T0は、基準時間である。T0には、100msを代入した。Npは、IoT装置がAPに正常に送信できたパケット数である。
Figure 2022127144000005
where T 0 is the reference time. 100 ms was substituted for T 0 . N p is the number of packets successfully transmitted by the IoT device to the AP.

図19A及び図19Bは、第2実験例における実施例(Top-1、Top-5)及び比較例の認識誤り率のシミュレーション結果を示す。図20A及び図20Bは、第2実験例における実施例(Top-1、Top-5)での画像の再送回数のシミュレーション結果を示す。図21は、第2実験例における実施例(Top-1、Top-5)及び比較例のダミートラヒックのスループットのシミュレーション結果を示す。図22及び図23は、第2実験例における実施例(Top-1、Top-5)及び比較例のダミートラヒック及び画像トラヒックの遅延のシミュレーション結果(累積度数分布)を示す。 FIGS. 19A and 19B show simulation results of recognition error rates of examples (Top-1 and Top-5) and comparative examples in the second experimental example. 20A and 20B show simulation results of the number of image retransmissions in examples (Top-1 and Top-5) in the second experimental example. FIG. 21 shows simulation results of the dummy traffic throughput of the example (Top-1, Top-5) and the comparative example in the second experimental example. 22 and 23 show simulation results (cumulative frequency distributions) of delays of dummy traffic and image traffic in the example (Top-1, Top-5) and the comparative example in the second experimental example.

図19A及び図19Bに示されるとおり、画像圧縮を採用した実施例及び画像圧縮を採用しなかった比較例の間で、認識誤り率にはほとんど差がなかった。つまり、実施例では、圧縮を行わずに対象データを送信する場合(比較例)と同等の認識精度を担保することができた。また、図20A及び図20Bに示されるとおり、実施例では、ある程度の回数の再送が発生していた。画像トラヒックが発生すると、ネットワークの輻輳によりスループットが低下する。画像トラヒックの送信が完了した後、大気中のトラヒックが同時に送信され、ネットワーク全体のスループットが増加する。これにより、スループットのばらつきが大きくなる。この点、図21に示されるとおり、実施例(Top-1、Top-5)は、比較例と比べて、スループットのばらつきは安定していた。また、図22及び図23に示されるとおり、実施例(Top-1、Top-5)では、比較例と比べて、ダミートラヒック及び画像トラヒックの遅延を低減することができた。なお、ダウンサンプリングは画像圧縮の手法として最も単純な手法の一つであり、圧縮方法として他の方法を採用しても、同様の傾向を示すことが推測された。以上の各結果から、本発明によれば、ネットワークのトラヒックを低減しつつ、推論モデルにより遂行される推論タスクの精度を保証することができることが検証できた。 As shown in FIGS. 19A and 19B, there was almost no difference in recognition error rate between the example that adopted image compression and the comparative example that did not adopt image compression. In other words, in the example, recognition accuracy equivalent to that in the case of transmitting target data without compression (comparative example) could be ensured. Also, as shown in FIGS. 20A and 20B, in the example, retransmission occurred a certain number of times. When image traffic occurs, throughput decreases due to network congestion. After the transmission of the image traffic is completed, the over-the-air traffic is transmitted at the same time, increasing the throughput of the whole network. This increases the variation in throughput. In this respect, as shown in FIG. 21, the examples (Top-1, Top-5) had more stable variations in throughput than the comparative example. Also, as shown in FIGS. 22 and 23, in the examples (Top-1 and Top-5), delays in dummy traffic and image traffic could be reduced compared to the comparative example. Note that downsampling is one of the simplest methods of image compression, and it was presumed that similar trends would be exhibited even if other compression methods were employed. From the above results, it was verified that according to the present invention, the accuracy of the inference task performed by the inference model can be guaranteed while reducing network traffic.

1…サーバ装置(データ通信装置)、
11…制御部、12…記憶部、13…通信インタフェース、
14…外部インタフェース、
15…入力装置、16…出力装置、17…ドライブ、
81…推論プログラム(再送指示プログラム)、91…記憶媒体、
111…データ受信部、112…結果取得部、
113…結果評価部、114…再送指示部、
115…出力部、116…準備指示部、
125…学習結果データ、
2…クライアント装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…外部インタフェース、
25…入力装置、26…出力装置、27…ドライブ、
82…送信プログラム、92…記憶媒体、
211…データ取得部、212…データ圧縮部、
213…データ送信部、
31…対象データ、33・35…圧縮された対象データ、
5…推論モデル
1 ... server device (data communication device),
11... control unit, 12... storage unit, 13... communication interface,
14 ... external interface,
15... input device, 16... output device, 17... drive,
81... inference program (retransmission instruction program), 91... storage medium,
111... data receiving unit, 112... result obtaining unit,
113... Result evaluation unit, 114... Retransmission instruction unit,
115... output section, 116... preparation instruction section,
125... Learning result data,
2... client device,
21... control unit, 22... storage unit, 23... communication interface,
24 ... external interface,
25... input device, 26... output device, 27... drive,
82... transmission program, 92... storage medium,
211 ... data acquisition unit, 212 ... data compression unit,
213 ... data transmission unit,
31 ... target data, 33 and 35 ... compressed target data,
5 ... inference model

Claims (15)

圧縮された対象データをクライアント装置から受信するように構成されるデータ受信部と、
推論モデルを使用することで受信した前記対象データに対して推論タスクを遂行した結果を取得するように構成される結果取得部と、
前記推論モデルによる前記推論タスクの遂行結果の尤もらしさを算出するように構成される結果評価部と、
算出された尤もらしさが閾値未満である場合に、圧縮率を低くした上で前記対象データを再送させる指示を前記クライアント装置に対して送信するように構成される再送指示部と、
を備える、
データ通信装置。
a data receiver configured to receive compressed target data from a client device;
a result acquisition unit configured to acquire a result of performing an inference task on the received target data using an inference model;
a result evaluation unit configured to calculate the likelihood of a result of performing the inference task by the inference model;
a retransmission instruction unit configured to transmit an instruction to the client device to retransmit the target data with a lower compression rate when the calculated likelihood is less than a threshold;
comprising
Data communication equipment.
前記再送指示部は、前記再送させる指示と共に、算出された前記尤もらしさに応じて圧縮率を低下させる程度を更に指示するように構成される、
請求項1に記載のデータ通信装置。
The retransmission instruction unit is configured to further instruct the extent to which the compression rate is to be reduced according to the calculated likelihood along with the retransmission instruction.
The data communication device according to claim 1.
算出された前記尤もらしさが閾値未満である場合の前記再送させる指示に備えさせるために、前記再送させる指示を送信する前に、圧縮率を低くした前記対象データを生成させる指示を前記クライアント装置に対して送信するように構成される準備指示部を更に備える、
請求項1又は2に記載のデータ通信装置。
In order to prepare for the retransmission instruction when the calculated likelihood is less than a threshold, the client device is instructed to generate the target data with a lower compression rate before transmitting the retransmission instruction. further comprising a readiness indicator configured to transmit to
3. A data communication device according to claim 1 or 2.
前記推論モデルは、機械学習により生成された訓練済みの機械学習モデルにより構成される、
請求項1から3のいずれか1項に記載のデータ通信装置。
The inference model is composed of a trained machine learning model generated by machine learning,
4. The data communication device according to claim 1.
前記尤もらしさは、前記推論タスクの遂行結果の不確定性に基づいて算出される、
請求項4に記載のデータ通信装置。
The likelihood is calculated based on the uncertainty of the performance result of the reasoning task.
5. The data communication device according to claim 4.
前記推論モデルは、前記機械学習により、前記推論タスクの遂行結果と共に、当該遂行結果の尤もらしさを出力するように訓練されており、
前記尤もらしさを算出することは、前記推論モデルの演算処理を実行した結果として、当該尤もらしさに対応する出力を得ることにより構成される、
請求項4に記載のデータ通信装置。
The inference model is trained by the machine learning to output the performance result of the inference task together with the likelihood of the performance result,
Calculating the plausibility comprises obtaining an output corresponding to the plausibility as a result of performing arithmetic processing of the inference model.
5. The data communication device according to claim 4.
前記対象データは、画像データにより構成され、
前記推論タスクは、前記画像データに写る対象物を認識することにより構成される、
請求項1から6のいずれか1項に記載のデータ通信装置。
The target data is composed of image data,
wherein the inference task is configured by recognizing an object appearing in the image data;
A data communication device according to any one of claims 1 to 6.
前記画像データは、監視カメラにより得られ、
前記画像データに写る対象物を認識することは、前記画像データにおけるシーンを識別することにより構成される、
請求項7に記載のデータ通信装置。
The image data is obtained by a surveillance camera,
recognizing an object in the image data comprises identifying a scene in the image data;
8. A data communication device according to claim 7.
前記対象データは、音データにより構成され、
前記推論タスクは、前記音データに表れる特徴を推論することにより構成される、
請求項1から6のいずれか1項に記載のデータ通信装置。
The target data is composed of sound data,
wherein the inference task consists of inferring features appearing in the sound data;
A data communication device according to any one of claims 1 to 6.
前記音データは、話者の音声を録音することにより得られ、
前記音データに表れる特徴を推論することは、前記話者の前記音声を認識することにより構成される、
請求項9に記載のデータ通信装置。
The sound data is obtained by recording a speaker's voice,
inferring features appearing in the sound data comprises recognizing the speech of the speaker;
10. A data communication device according to claim 9.
前記対象データは、センシングデータにより構成され、
前記推論タスクは、前記センシングデータに表れる特徴を推論することにより構成される、
請求項1から6のいずれか1項に記載のデータ通信装置。
The target data is composed of sensing data,
The inference task is configured by inferring features appearing in the sensing data.
A data communication device according to any one of claims 1 to 6.
対象データを取得するように構成されるデータ取得部と、
取得された前記対象データを圧縮するように構成されるデータ圧縮部と、
請求項1から11のいずれか1項に記載のデータ通信装置に圧縮された前記対象データを送信するように構成されるデータ送信部と、
を備えるクライアント装置であって、
圧縮率を低くした上で前記対象データを再送する指示が前記データ通信装置で発生することに対応して、前記データ圧縮部は、先の圧縮率よりも低い圧縮率で前記対象データを再度圧縮するように構成され、
前記データ送信部は、前記対象データを再送する指示を受信したことに応じて、再度圧縮された前記対象データを前記データ通信装置に送信するように構成される、
クライアント装置。
a data acquisition unit configured to acquire target data;
a data compression unit configured to compress the acquired target data;
a data transmission unit configured to transmit the compressed target data to the data communication device according to any one of claims 1 to 11;
A client device comprising:
In response to the instruction to resend the target data after lowering the compression rate, the data compression unit compresses the target data again at a compression rate lower than the previous compression rate. is configured to
The data transmission unit is configured to transmit the recompressed target data to the data communication device in response to receiving an instruction to resend the target data.
client device.
前記データ圧縮部は、前記データ通信装置からの前記対象データを再送する指示を受信する前に、当該指示に備えて、先の圧縮率よりも低い圧縮率で前記対象データを再度圧縮する処理の実行を開始するように構成される、
請求項12に記載のクライアント装置。
Before receiving an instruction to resend the target data from the data communication device, the data compression unit performs a process of compressing the target data again at a compression rate lower than the previous compression rate in preparation for the instruction. configured to start running,
13. A client device according to claim 12.
コンピュータが、
圧縮された対象データをクライアント装置から受信するステップと、
推論モデルを使用することで受信した前記対象データに対して推論タスクを遂行した結果を取得するステップと、
前記推論モデルによる前記推論タスクの遂行結果の尤もらしさを算出するステップと、
算出された尤もらしさが閾値未満である場合に、圧縮率を低くした上で前記対象データを再送させる指示を前記クライアント装置に対して送信するステップと、
を実行する、
再送指示方法。
the computer
receiving compressed target data from a client device;
obtaining results of performing an inference task on the received data of interest using an inference model;
calculating the likelihood of performance of the inference task by the inference model;
a step of transmitting an instruction to the client device to retransmit the target data after lowering the compression rate when the calculated likelihood is less than a threshold;
run the
Retransmission instruction method.
コンピュータに、
圧縮された対象データをクライアント装置から受信するステップと、
推論モデルを使用することで受信した前記対象データに対して推論タスクを遂行した結果を取得するステップと、
前記推論モデルによる前記推論タスクの遂行結果の尤もらしさを算出するステップと、
算出された尤もらしさが閾値未満である場合に、圧縮率を低くした上で前記対象データを再送させる指示を前記クライアント装置に対して送信するステップと、
を実行させるための、
再送指示プログラム。
to the computer,
receiving compressed target data from a client device;
obtaining results of performing an inference task on the received data of interest using an inference model;
calculating the likelihood of performance of the inference task by the inference model;
a step of transmitting an instruction to the client device to retransmit the target data after lowering the compression rate when the calculated likelihood is less than a threshold;
to run the
Resend instruction program.
JP2021025113A 2021-02-19 2021-02-19 Data communication device, client device, retransmission instruction method, and retransmission instruction program Pending JP2022127144A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021025113A JP2022127144A (en) 2021-02-19 2021-02-19 Data communication device, client device, retransmission instruction method, and retransmission instruction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021025113A JP2022127144A (en) 2021-02-19 2021-02-19 Data communication device, client device, retransmission instruction method, and retransmission instruction program

Publications (1)

Publication Number Publication Date
JP2022127144A true JP2022127144A (en) 2022-08-31

Family

ID=83060170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021025113A Pending JP2022127144A (en) 2021-02-19 2021-02-19 Data communication device, client device, retransmission instruction method, and retransmission instruction program

Country Status (1)

Country Link
JP (1) JP2022127144A (en)

Similar Documents

Publication Publication Date Title
US20210104021A1 (en) Method and apparatus for processing image noise
CN108197652B (en) Method and apparatus for generating information
JP2020017952A (en) Method and device for warning
US11715190B2 (en) Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device
CN111242171B (en) Model training and diagnosis prediction method and device for network faults and electronic equipment
CN112001274B (en) Crowd density determining method, device, storage medium and processor
US20170106530A1 (en) Administration server, administration system, and administration method
CN110858288A (en) Abnormal behavior identification method and device
CN115210724A (en) Model generation device, estimation device, model generation method, and model generation program
CN112650885A (en) Video classification method, device, equipment and medium
JP2021060982A (en) Data analysis system diagnostic method, data analysis system optimization method, device, and medium
CN113887318A (en) Embedded power violation detection method and system based on edge calculation
CN112307900A (en) Method and device for evaluating facial image quality and electronic equipment
Segura et al. Dynamic packet duplication for industrial URLLC
CN107958434B (en) Intelligent nursing method and device, electronic equipment and storage medium
JP2022127144A (en) Data communication device, client device, retransmission instruction method, and retransmission instruction program
Lee et al. An intelligent handover mechanism based on MOS predictions for real-time video conference services in mobile networks
CN115130543B (en) Image recognition method and device, storage medium and electronic equipment
CN113436650B (en) Baby cry identification method and device, electronic equipment and storage medium
Bardalai et al. Throughput prediction in smart healthcare network using machine learning approaches
US11983246B2 (en) Data analysis system, learning device, method, and program
EP3683733A1 (en) A method, an apparatus and a computer program product for neural networks
US20240135172A1 (en) Model generation device, sorting device, data generation device, model generation method, and non-transitory computer storage media
US20240232615A9 (en) Model generation device, sorting device, data generation device, model generation method, and non-transitory computer storage media
EP3821398A1 (en) Detecting subject motion in medical imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231206