JP2021089582A - Information processing device, relay device, system, information processing device control method, relay device control method, and program - Google Patents

Information processing device, relay device, system, information processing device control method, relay device control method, and program Download PDF

Info

Publication number
JP2021089582A
JP2021089582A JP2019219692A JP2019219692A JP2021089582A JP 2021089582 A JP2021089582 A JP 2021089582A JP 2019219692 A JP2019219692 A JP 2019219692A JP 2019219692 A JP2019219692 A JP 2019219692A JP 2021089582 A JP2021089582 A JP 2021089582A
Authority
JP
Japan
Prior art keywords
trained model
information processing
terminal
request
compression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019219692A
Other languages
Japanese (ja)
Other versions
JP7346267B2 (en
Inventor
尚弥 小杉
Naoya Kosugi
尚弥 小杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019219692A priority Critical patent/JP7346267B2/en
Publication of JP2021089582A publication Critical patent/JP2021089582A/en
Application granted granted Critical
Publication of JP7346267B2 publication Critical patent/JP7346267B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

To suppress the decrease in inference accuracy due to a learnt model even if the resource state of a terminal changes dynamically.SOLUTION: An information processing device includes reception means for receiving a resource state of a terminal together with a request of a learnt model from the terminal, control means for controlling compression of the learnt model that is a target of the request with a compression degree according to the resource state, and transmission means for transmitting the compressed learnt model to the terminal.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、中継装置、システム、情報処理装置の制御方法、中継装置の制御方法およびプログラムに関する。 The present invention relates to an information processing device, a relay device, a system, a control method of the information processing device, a control method of the relay device, and a program.

画面上の画像データを圧縮してクライアント端末に送信する技術が、特許文献1に提案されている。特許文献1の技術では、サーバ端末が、画面上の複数の種別のグラフィカル・ユーザ・インタフェース(GUI)部品を含む表示画像の少なくとも一部の領域の画像データを圧縮してクライアント端末に送信する。 Patent Document 1 proposes a technique of compressing image data on a screen and transmitting it to a client terminal. In the technique of Patent Document 1, the server terminal compresses image data in at least a part of a display image including a plurality of types of graphical user interface (GUI) components on the screen and transmits the image data to the client terminal.

特開2010−55280号公報Japanese Unexamined Patent Publication No. 2010-55280

例えば、エッジ端末(端末)が、サーバから取得した学習済みモデルを用いて、推論処理を行うケースを想定する。一般的に、エッジ端末は、ハードウェアリソースが豊富ではないため、多くの学習済みモデルを保持することが難しい。そこで、学習済みモデルの圧縮を行い、圧縮された学習済みモデルをエッジ端末に保持させることが考えられる。ただし、学習済みモデルの圧縮が行われると、学習済みモデルを用いた推論精度が低下するため、学習済みモデルの圧縮度合いは低いことが望ましい。一方、エッジ端末のハードウェアのリソース状態は動的に変化する。このため、エッジ端末のリソース状態の変化に応じて、学習済みモデルの圧縮度合いを制御することは難しく、適正な度合いで圧縮された学習済みモデルを用いることが難しく、推論精度の低下が生じることがある。 For example, assume a case where an edge terminal (terminal) performs inference processing using a learned model acquired from a server. In general, edge terminals do not have abundant hardware resources, so it is difficult to hold many trained models. Therefore, it is conceivable to compress the trained model and hold the compressed trained model in the edge terminal. However, when the trained model is compressed, the inference accuracy using the trained model decreases, so it is desirable that the degree of compression of the trained model is low. On the other hand, the resource state of the hardware of the edge terminal changes dynamically. Therefore, it is difficult to control the degree of compression of the trained model according to the change in the resource state of the edge terminal, it is difficult to use the trained model compressed to an appropriate degree, and the inference accuracy is lowered. There is.

本発明は、端末のリソース状態が動的に変化しても、学習済みモデルによる推論精度の低下を抑制することを目的とする。 An object of the present invention is to suppress a decrease in inference accuracy due to a trained model even if the resource state of the terminal changes dynamically.

上記目的を達成するために、本発明の情報処理装置は、端末から学習済みモデルのリクエストともに前記端末のリソース状態を受信する受信手段と、前記リソース状態に応じた圧縮度合いで前記リクエストの対象となる学習済みモデルを圧縮する制御を行う制御手段と、圧縮された前記学習済みモデルを前記端末に送信する送信手段と、を備えることを特徴とする。 In order to achieve the above object, the information processing apparatus of the present invention comprises a receiving means for receiving the resource state of the terminal together with the request of the learned model from the terminal, and the target of the request with a compression degree according to the resource state. It is characterized by including a control means for controlling compression of the trained model, and a transmission means for transmitting the compressed trained model to the terminal.

本発明によれば、端末のリソース状態が動的に変化しても、学習済みモデルによる推論精度の低下を抑制することができる。 According to the present invention, even if the resource state of the terminal changes dynamically, it is possible to suppress a decrease in inference accuracy due to the trained model.

本実施形態のシステムの構成例を示す図である。It is a figure which shows the configuration example of the system of this embodiment. 情報処理装置の構成例の一例を示すブロック図である。It is a block diagram which shows an example of the configuration example of an information processing apparatus. 撮像装置の構成例の一例を示すブロック図である。It is a block diagram which shows an example of the configuration example of an image pickup apparatus. リソース状態と学習済みモデルの圧縮度合いとの対応関係を示すテーブルである。It is a table showing the correspondence between the resource state and the compression degree of the trained model. 学習済みモデルの管理の一例を示すテーブルである。It is a table which shows an example of management of a trained model. 撮像装置の処理の流れを示すフローチャートである。It is a flowchart which shows the process flow of the image pickup apparatus. 情報処理装置の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of an information processing apparatus. 学習済みモデルの生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the generation process of a trained model. 変形例のシステムの構成例を示す図である。It is a figure which shows the configuration example of the system of the modification example.

以下、本発明の各実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の各実施の形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は各実施の形態に記載されている構成によって限定されることはない。 Hereinafter, each embodiment of the present invention will be described in detail with reference to the drawings. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the respective embodiments.

以下、図面を参照して、本実施形態を説明する。図1は、本実施形態のシステム100の構成例を示す図である。システム100において、撮像装置101と情報処理装置102とは、ネットワーク106、107を介して接続されている。ネットワーク106、107は、有線通信または無線通信が可能なネットワークである。本実施形態では、エッジ端末(端末)として撮像装置101を適用しているが、エッジ端末としては、例えば、スマートフォンやタブレット端末等の任意の端末が適用されてもよい。情報処理装置102は、複数の学習済みモデル103を保持またはキャッシュ(保存)する。学習済みモデル103は、圧縮された学習済みモデル、または圧縮されていない学習済みモデル(オリジナルの学習済みモデル)である。情報処理装置102は、複数の学習済みモデル103のうちから任意の学習済みモデルを選択して、選択された学習済みモデルを圧縮する。そして、情報処理装置102は、選択された学習済みモデルを圧縮して、圧縮済み学習済みモデル105を生成する。圧縮済み学習済みモデル105は、図1では、学習済みモデルA’と表記される。情報処理装置102は、例えば、クラウドサーバ等である。 Hereinafter, the present embodiment will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration example of the system 100 of the present embodiment. In the system 100, the image pickup apparatus 101 and the information processing apparatus 102 are connected to each other via networks 106 and 107. Networks 106 and 107 are networks capable of wired communication or wireless communication. In the present embodiment, the image pickup device 101 is applied as an edge terminal (terminal), but as the edge terminal, for example, any terminal such as a smartphone or a tablet terminal may be applied. The information processing device 102 holds or caches (saves) a plurality of trained models 103. The trained model 103 is a compressed trained model or an uncompressed trained model (original trained model). The information processing device 102 selects an arbitrary trained model from the plurality of trained models 103, and compresses the selected trained model. Then, the information processing apparatus 102 compresses the selected trained model to generate the compressed trained model 105. The compressed trained model 105 is referred to as the trained model A'in FIG. The information processing device 102 is, for example, a cloud server or the like.

学習済みモデルは、任意の機械学習により得られるモデルである。学習済みモデルは、例えば、誤差逆伝搬法等によりパラメータが調整された学習済みのニューラルネットワークであってもよい。学習済みモデルは、ニューラルネットワーク以外のモデルであってもよい。例えば、学習済みモデルは、サポートベクターマシンにより学習されたモデルであってもよい。 The trained model is a model obtained by arbitrary machine learning. The trained model may be, for example, a trained neural network whose parameters have been adjusted by an error back propagation method or the like. The trained model may be a model other than the neural network. For example, the trained model may be a model trained by a support vector machine.

撮像装置101は、ネットワーク106を介して、学習済みモデルのリクエストおよび自身のリソース状態を情報処理装置102に送信する。リソース状態は、例えば、撮像装置101のCPU使用率やメモリ使用率、筐体温度、バッテリー容量等、撮像装置101の処理状態に応じて動的に変化する撮像装置101の負荷を示す情報である。リソース状態は、CPU使用率とメモリ使用率と筐体温度とバッテリー容量とを組み合わせた指標であってもよい。また、リソース状態は、撮像装置101の元々のメモリ容量や処理スペック等の性能や機能等を含んでもよい。 The image pickup apparatus 101 transmits a request for the trained model and its own resource state to the information processing apparatus 102 via the network 106. The resource state is information indicating the load of the image pickup device 101 that dynamically changes according to the processing state of the image pickup device 101, such as the CPU usage rate, the memory usage rate, the housing temperature, and the battery capacity of the image pickup device 101. .. The resource state may be an index that combines the CPU usage rate, the memory usage rate, the housing temperature, and the battery capacity. Further, the resource state may include performances and functions such as the original memory capacity and processing specifications of the image pickup apparatus 101.

情報処理装置102は、撮像装置101から受信したリクエストおよびリソース状態から、リクエストの対象となる学習済みモデル104の圧縮度合いを決定する。リクエストの対象となる学習済みモデル104は、図1では、学習済みモデルA’と表記される。情報処理装置102は、撮像装置101からのリクエストおよびリソース状態に応じた圧縮度合いの学習済みモデルをキャッシュしている場合、ネットワーク107を介して、キャッシュしている学習済みモデルを撮像装置101に送信する。一方、情報処理装置102は、上記圧縮度合いの学習済みモデルをキャッシュしていない場合、リクエスト対象の学習済みモデルを、決定された圧縮度合いで圧縮する。そして、情報処理装置102は、圧縮済み学習済みモデル105の生成およびキャッシュを行う。また、情報処理装置102は、ネットワーク107を介して、生成された圧縮済み学習済みモデルを撮像装置101に送信する。ネットワーク106と107とは一体的なネットワークであってもよいし、別個なネットワークであってもよい。また、ネットワーク106および107は、無線ネットワークであってもよい。 The information processing device 102 determines the degree of compression of the trained model 104 that is the target of the request from the request and the resource state received from the image pickup device 101. The trained model 104 that is the target of the request is referred to as the trained model A'in FIG. When the information processing device 102 caches the learned model of the compression degree according to the request from the image pickup device 101 and the resource state, the information processing device 102 transmits the cached learned model to the image pickup device 101 via the network 107. To do. On the other hand, when the information processing apparatus 102 does not cache the trained model of the compression degree, the information processing apparatus 102 compresses the trained model of the request target with the determined compression degree. Then, the information processing device 102 generates and caches the compressed learned model 105. Further, the information processing device 102 transmits the generated compressed learned model to the image pickup device 101 via the network 107. The networks 106 and 107 may be an integrated network or a separate network. Further, the networks 106 and 107 may be wireless networks.

以上のように、情報処理装置102は、撮像装置101のリソース状態から判定した圧縮度合いで学習済みモデルを圧縮する。撮像装置101のリソース状態は動的に変化するが、情報処理装置102は、撮像装置101からのリクエストおよびリソース状態に応じて、可能な限り低い圧縮度合いで学習済みモデルを圧縮する。そして、撮像装置101は、圧縮された学習済みモデルを用いて、推論を行うことができる。これにより、撮像装置101の本来の機能を阻害せずに、撮像装置101が推論を行う際の精度低下を抑制できる。 As described above, the information processing device 102 compresses the trained model with the degree of compression determined from the resource state of the image pickup device 101. Although the resource state of the image pickup apparatus 101 changes dynamically, the information processing apparatus 102 compresses the trained model with the lowest possible compression degree in response to the request from the image pickup apparatus 101 and the resource state. Then, the image pickup apparatus 101 can perform inference using the compressed trained model. As a result, it is possible to suppress a decrease in accuracy when the image pickup device 101 makes an inference without impairing the original function of the image pickup device 101.

図2は、情報処理装置102の構成例の一例を示すブロック図である。情報処理装置102は、CRTディスプレイ201、VRAM202、BMU203、キーボード204、PD205、CPU206、ROM207、RAM208およびHDD209を有する。また、情報処理装置102は、フレキシブルディスク210、ネットワークI/F211およびバス212を有する。情報処理装置102の構成は、図2の例には限定されない。CRT(Cathode Ray Tube)ディスプレイ(CRTディスプレイ201)には、アイコンやメッセージ、メニューその他のユーザインタフェース情報が表示される。これらのインタフェース情報は、情報処理装置102により管理される。 FIG. 2 is a block diagram showing an example of a configuration example of the information processing device 102. The information processing device 102 includes a CRT display 201, a VRAM 202, a BMU 203, a keyboard 204, a PD 205, a CPU 206, a ROM 207, a RAM 208, and an HDD 209. Further, the information processing device 102 has a flexible disk 210, a network I / F 211, and a bus 212. The configuration of the information processing device 102 is not limited to the example of FIG. The CRT (Cathode Ray Tube) display (CRT display 201) displays icons, messages, menus, and other user interface information. These interface information is managed by the information processing device 102.

VRAM202には、CRTディスプレイ201に表示するための画像が描画される。VRAM202に生成された画像データは、所定の規定に従ってCRTディスプレイ201に転送される。これにより、CRTディスプレイ201に画像が表示される。BMU(ビットムーブユニット)203は、例えば、メモリ間(例えば、VRAM202と他のメモリとの間)のデータ転送や、メモリと各I/Oデバイス(例えば、ネットワークI/F211)との間のデータ転送を制御する。キーボード204は、文字等を入力するための各種キーを有する。PD(ポインティングデバイス)205は、例えば、CRTディスプレイ201に表示されたアイコンやメニューその他のコンテンツを指示またはオブジェクトのドラッグドロップ等の操作に用いられる。 An image to be displayed on the CRT display 201 is drawn on the VRAM 202. The image data generated in the VRAM 202 is transferred to the CRT display 201 according to a predetermined specification. As a result, the image is displayed on the CRT display 201. The BMU (bit move unit) 203 is used, for example, for data transfer between memories (for example, between VRAM 202 and another memory) and data between the memory and each I / O device (for example, network I / F211). Control the transfer. The keyboard 204 has various keys for inputting characters and the like. The PD (pointing device) 205 is used, for example, for an operation such as instructing an icon, a menu or other contents displayed on the CRT display 201, or dragging and dropping an object.

CPU206は、ROM207、HDD209またはフレキシブルディスク210に格納されたOSや後術するプログラム等の制御プログラムに基づいて、各デバイスを制御する。CPU206は、制御手段に対応する。ROM207は、各種制御プログラムやデータを保存する。RAM208は、CPU206のワーク領域、エラー処理時のデータの退避領域、制御プログラムのロード領域等を有する。CPU206が、RAM208にロードされた制御プログラムを実行することで、本実施形態の処理が実現されてもよい。HDD209は、情報処理装置102内で実行される各制御プログラムや一時保管したデータ等のデータを格納する。上述した各学習済みモデルは、例えば、RAM207やHDD209、CPU206のキャッシュメモリ等にキャッシュされてもよい。 The CPU 206 controls each device based on a control program such as an OS or a program to be performed later, which is stored in the ROM 207, the HDD 209, or the flexible disk 210. The CPU 206 corresponds to the control means. The ROM 207 stores various control programs and data. The RAM 208 has a work area of the CPU 206, a data save area at the time of error processing, a control program load area, and the like. The processing of the present embodiment may be realized by the CPU 206 executing the control program loaded in the RAM 208. The HDD 209 stores data such as each control program executed in the information processing apparatus 102 and temporarily stored data. Each of the above-described trained models may be cached in, for example, the cache memory of the RAM 207, the HDD 209, or the CPU 206.

ネットワークI/F111は、ネットワーク106および107と接続されており、撮像装置101との間で通信を行う。ネットワークI/F111は、受信手段および送信手段に対応する。ネットワークI/F111は、他の情報処理装置やプリンタ等とネットワークを介して通信を行うこともできる。バス212は、アドレスバス、データバスおよびコントロールバスを含む。CPU206に対する制御プログラムの提供は、ROM207やHDD209、フレキシブルディスク210から行われてもよいし、ネットワークI/F211を介してネットワーク経由で他のサーバ等から行われてもよい。 The network I / F 111 is connected to the networks 106 and 107 and communicates with the image pickup apparatus 101. The network I / F 111 corresponds to a receiving means and a transmitting means. The network I / F 111 can also communicate with other information processing devices, printers, and the like via the network. Bus 212 includes an address bus, a data bus and a control bus. The control program for the CPU 206 may be provided from the ROM 207, the HDD 209, or the flexible disk 210, or may be provided from another server or the like via the network via the network I / F211.

次に、撮像装置101ついて説明する。図3は、撮像装置300の構成例の一例を示すブロック図である。図3の撮像装置300は、図1の撮像装置101である。撮像装置300は、撮像機能を有する携帯端末であってもよい。撮像装置300は、ズームレンズおよびフォーカスレンズを含む撮影レンズ301、絞り機能を備えるシャッター302、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像部303を含む。A/D変換器304は、撮像部303から出力されるアナログ信号をデジタル信号に変換する。 Next, the image pickup apparatus 101 will be described. FIG. 3 is a block diagram showing an example of a configuration example of the image pickup apparatus 300. The image pickup device 300 of FIG. 3 is the image pickup device 101 of FIG. The image pickup device 300 may be a mobile terminal having an image pickup function. The imaging device 300 includes a photographing lens 301 including a zoom lens and a focus lens, a shutter 302 having an aperture function, and an imaging unit 303 composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The A / D converter 304 converts the analog signal output from the imaging unit 303 into a digital signal.

バリア305は、撮影レンズ301等を覆うことにより、撮影レンズ301やシャッター302、撮像部303等を含む撮像系の汚れや破損を防止する。画像処理部306は、A/D変換器304が出力した画像データまたはメモリ制御部307から取得した画像データに対して、所定の画像処理(画素補間、縮小といったリサイズ処理や色変換処理等)を施す。また、画像処理部306は、撮像された画像データを用いて所定の演算処理を行う。そして、システム制御部308は、演算結果に基づいて露光制御や測距制御等を行う。A/D変換器304が出力する画像データは、画像処理部306およびメモリ制御部307を介して、またはメモリ制御部307のみを介してメモリ309に書き込まれる。 By covering the photographing lens 301 and the like, the barrier 305 prevents the imaging system including the photographing lens 301, the shutter 302, the imaging unit 303 and the like from being soiled or damaged. The image processing unit 306 performs predetermined image processing (resizing processing such as pixel interpolation and reduction, color conversion processing, etc.) on the image data output by the A / D converter 304 or the image data acquired from the memory control unit 307. Give. In addition, the image processing unit 306 performs predetermined arithmetic processing using the captured image data. Then, the system control unit 308 performs exposure control, distance measurement control, and the like based on the calculation result. The image data output by the A / D converter 304 is written to the memory 309 via the image processing unit 306 and the memory control unit 307, or only via the memory control unit 307.

システム制御部308は撮像装置101全体を制御する。システム制御部308は不揮発性メモリ312に記憶されたプログラムを実行することで、撮像装置101の処理を実現する。メモリ309は、撮像部303により得られ、A/D変換器304によりデジタルデータに変換された画像データや、表示部310に表示するための画像データを格納する。メモリ309は所定枚数の静止画像データや所定時間の動画像データ、音声データ等を格納するのに十分な記憶容量を有している。また、メモリ309は画像表示用のメモリ(ビデオメモリ)を兼ねている。 The system control unit 308 controls the entire image pickup apparatus 101. The system control unit 308 realizes the processing of the image pickup apparatus 101 by executing the program stored in the non-volatile memory 312. The memory 309 stores the image data obtained by the image pickup unit 303 and converted into digital data by the A / D converter 304, and the image data to be displayed on the display unit 310. The memory 309 has a storage capacity sufficient to store a predetermined number of still image data, moving image data for a predetermined time, audio data, and the like. Further, the memory 309 also serves as a memory (video memory) for displaying an image.

D/A変換器311は、メモリ309に格納されている画像表示用の画像データをアナログ信号に変換して表示部310に供給する。これにより、メモリ309に書き込まれた表示用の画像データは、D/A変換器311を介して表示部310に表示される。表示部310はLCD等の表示器上に、D/A変換器311からのアナログ信号に応じた表示を行う。不揮発性メモリ312は電気的に消去および記録が可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ312には、システム制御部308の動作用の定数や後述する連携を行うプログラム等の制御プログラム等が記憶される。システムメモリ313は、例えばRAMである。システムメモリ313には、システム制御部308の動作用の定数や変数、不揮発性メモリ312から読み出したプログラム等が展開される。 The D / A converter 311 converts the image data for image display stored in the memory 309 into an analog signal and supplies it to the display unit 310. As a result, the image data for display written in the memory 309 is displayed on the display unit 310 via the D / A converter 311. The display unit 310 displays on a display such as an LCD according to the analog signal from the D / A converter 311. The non-volatile memory 312 is a memory that can be electrically erased and recorded, and for example, EEPROM or the like is used. The non-volatile memory 312 stores constants for operation of the system control unit 308, control programs such as a program for cooperation described later, and the like. The system memory 313 is, for example, a RAM. In the system memory 313, constants and variables for the operation of the system control unit 308, a program read from the non-volatile memory 312, and the like are expanded.

撮像装置300は、モード切替スイッチ314、第1シャッタースイッチ315、第2シャッタースイッチ316および操作部317を含む。モード切替スイッチ314、第1シャッタースイッチ315、第2シャッタースイッチ316および操作部317は、システム制御部308に各種の動作指示を入力するための操作部である。モード切替スイッチ314は、システム制御部308の動作モードを静止画記録モードや動画記録モード、再生モード等の各種モードのうち何れかに切り替える。第1シャッタースイッチ315は、撮像装置101に設けられたシャッターボタンの操作途中、いわゆる半押し(撮影準備指示)でオンとなり第1シャッタースイッチ信号SW1を発生する。第2シャッタースイッチ316はシャッターボタンの操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部308は、第2シャッタースイッチ信号SW2の発生により、撮像部303からの信号読み出しから記録媒体325に画像データを書き込むまでの一連の撮影処理の動作を開始する。 The image pickup apparatus 300 includes a mode changeover switch 314, a first shutter switch 315, a second shutter switch 316, and an operation unit 317. The mode changeover switch 314, the first shutter switch 315, the second shutter switch 316, and the operation unit 317 are operation units for inputting various operation instructions to the system control unit 308. The mode changeover switch 314 switches the operation mode of the system control unit 308 to any one of various modes such as a still image recording mode, a moving image recording mode, and a playback mode. The first shutter switch 315 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button provided on the image pickup apparatus 101, and the first shutter switch signal SW1 is generated. The second shutter switch 316 is turned on when the operation of the shutter button is completed, so-called full pressing (shooting instruction), and the second shutter switch signal SW2 is generated. When the second shutter switch signal SW2 is generated, the system control unit 308 starts a series of shooting processes from reading the signal from the imaging unit 303 to writing the image data to the recording medium 325.

操作部317の各操作部材は表示部310に表示される種々の機能アイコンが選択操作されること等により、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば、確認ボタンや終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押下されると各種の設定可能なメニュー画面が表示部310に表示される。ユーザは、表示部310に表示されたメニュー画面や、4方向ボタン、SETボタン等を用いて、直感的に各種設定を行うことができる。 Each operation member of the operation unit 317 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 310, and acts as various function buttons. The function buttons include, for example, a confirmation button, an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 310. The user can intuitively make various settings by using the menu screen displayed on the display unit 310, the four-way button, the SET button, and the like.

コントローラホイール318は、操作部317に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示するとき等に用いられる。システム制御部308はパルス信号に基づいて撮像装置101の各部を制御する。また、システム制御部308はパルス信号によってコントローラホイール318が回転操作された角度や回転数等を判定することができる。なお、コントローラホイール318は回転操作が検出できる操作部材であれば、任意の部材が用いられてもよい。コントローラリング319は、操作部317に含まれる回転操作部材である。コントローラリング319は、レンズ鏡筒周りで光軸を中心として回転する操作が可能である。例えば、コントローラリング319を操作することで回転量(操作量)に応じた電気的なパルス信号が発生する。システム制御部308はパルス信号に基づいて撮像装置101の各部を制御する。また、操作部317に含まれるコントローラリング319の機能切替ボタンが押下されると、コントローラリング319に割り当てる機能を変更可能なメニュー画面が表示部310に表示される。コントローラリング319およびコントローラホイール318は通常モード項目の選択や値の変更に用いられる。 The controller wheel 318 is a rotation-operable operation member included in the operation unit 317, and is used when instructing a selection item together with a direction button. The system control unit 308 controls each unit of the image pickup apparatus 101 based on the pulse signal. In addition, the system control unit 308 can determine the angle at which the controller wheel 318 is rotated, the number of rotations, and the like based on the pulse signal. Any member may be used for the controller wheel 318 as long as it is an operating member capable of detecting the rotation operation. The controller ring 319 is a rotation operation member included in the operation unit 317. The controller ring 319 can be operated to rotate around the lens barrel around the optical axis. For example, by operating the controller ring 319, an electric pulse signal corresponding to the amount of rotation (operation amount) is generated. The system control unit 308 controls each unit of the image pickup apparatus 101 based on the pulse signal. Further, when the function switching button of the controller ring 319 included in the operation unit 317 is pressed, a menu screen on which the function assigned to the controller ring 319 can be changed is displayed on the display unit 310. The controller ring 319 and controller wheel 318 are used to select normal mode items and change their values.

電源スイッチ320は、撮像装置300の電源オンと電源オフとを切り替えるスイッチである。電源制御部321は、電池検出回路やDC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成さる。電源制御部321は、電池の装着の有無や電池の種類、電池残量の検出等を行う。また、電源制御部321は検出結果およびシステム制御部308の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体325を含む各部へ供給する。電源部322は、アルカリ電池やリチウム電池等の一次電池であってもよいし、NiCd電池やNiMH電池、Li電池等の二次電池であってもよいし、ACアダプター等であってもよい。通信部323は、記録媒体325に記憶された画像を外部機器に送信する。インタフェース324は、記録媒体325を制御するインタフェースである。記録媒体325は、半導体メモリや磁気ディスク等から構成される。ネットワークI/F326は、システム制御部308により制御されることで、ネットワーク106および107を介して通信を行う。ネットワークI/F326は、リクエスト手段に対応する。ネットワーク106および107を介して、撮像装置300は、情報処理装置102と通信を行うことができる。 The power switch 320 is a switch for switching between power on and power off of the image pickup apparatus 300. The power supply control unit 321 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like. The power supply control unit 321 detects whether or not a battery is installed, the type of battery, the remaining battery level, and the like. Further, the power supply control unit 321 controls the DC-DC converter based on the detection result and the instruction of the system control unit 308, and supplies a necessary voltage to each unit including the recording medium 325 for a necessary period. The power supply unit 322 may be a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter or the like. The communication unit 323 transmits the image stored in the recording medium 325 to the external device. The interface 324 is an interface for controlling the recording medium 325. The recording medium 325 is composed of a semiconductor memory, a magnetic disk, or the like. The network I / F 326 is controlled by the system control unit 308 to communicate via the networks 106 and 107. The network I / F326 corresponds to the request means. The image pickup apparatus 300 can communicate with the information processing apparatus 102 via the networks 106 and 107.

次に、学習済みモデルの圧縮度合いの決定について説明する。図4は、撮像装置300のCPU使用率と学習済みモデルの圧縮度合いとの対応関係を示すテーブルである。図4に示されるテーブルは、情報処理装置102により保持される。学習済みモデルの圧縮手法としては、例えば、量子化や枝刈り、重み共有、蒸留等の任意のモデル軽量化技術が適用できる。量子化は、パラメータのビット数を低減する手法である。枝刈りは、重要度が低いパラメータを削減する手法である。重み共有は、パラメータの重み係数を共有する手法である。 Next, the determination of the degree of compression of the trained model will be described. FIG. 4 is a table showing the correspondence between the CPU usage rate of the image pickup apparatus 300 and the degree of compression of the trained model. The table shown in FIG. 4 is held by the information processing device 102. As the compression method of the trained model, for example, any model weight reduction technique such as quantization, pruning, weight sharing, and distillation can be applied. Quantization is a technique for reducing the number of bits in a parameter. Pruning is a technique for reducing less important parameters. Weight sharing is a method of sharing parameter weighting factors.

図4のテーブルには、項目401および402が含まれている。項目401は、撮像装置300のリソース状態として、CPU使用率を示す。項目401は、例えば、メモリ使用率等であってもよい。項目402は、CPU使用率に対応して決定される学習済みモデルの圧縮度合いを示す。圧縮度合いが32bitの学習済みモデルが、オリジナルの学習済みモデルである。学習済みモデルの圧縮度合いが高くなるとビット数が少なくなり、圧縮率が高くなる。学習済みモデルの圧縮度合いが高くなると、学習済みモデルの容量が小さくなり、推論精度が低下する。CPU使用率の各値は、学習済みモデルの圧縮度合いを決定する閾値を示す。例えば、CPU使用率が60%を超えた場合、撮像装置300が使用可能な学習済みモデルは8bit以下のパラメータに量子化されたものになる。 The table of FIG. 4 contains items 401 and 402. Item 401 shows the CPU usage rate as the resource state of the image pickup apparatus 300. Item 401 may be, for example, a memory usage rate or the like. Item 402 indicates the degree of compression of the trained model, which is determined according to the CPU usage rate. The trained model with a compression degree of 32 bits is the original trained model. As the degree of compression of the trained model increases, the number of bits decreases and the compression rate increases. As the degree of compression of the trained model increases, the capacity of the trained model decreases and the inference accuracy decreases. Each value of CPU utilization indicates a threshold value that determines the degree of compression of the trained model. For example, when the CPU usage rate exceeds 60%, the trained model that can be used by the image pickup apparatus 300 is quantized to a parameter of 8 bits or less.

図5は、学習済みモデルの管理の一例を示すテーブルである。図5に示されるテーブルは、情報処理装置102により保持される。情報処理装置102は、オリジナルの学習済みモデルを保持するとともに、圧縮された学習済みモデルも併せてキャッシュする。つまり、情報処理装置102は、同種類、且つ圧縮度合いがそれぞれ異なる学習済みモデルを管理することとなる。図5のテーブルにおいて、項目501は、情報処理装置102が管理している学習済みモデルが、どのような被写体の種類に対応しているかを表している。 FIG. 5 is a table showing an example of management of the trained model. The table shown in FIG. 5 is held by the information processing device 102. The information processing device 102 holds the original trained model and also caches the compressed trained model. That is, the information processing device 102 manages the trained models of the same type and different degrees of compression. In the table of FIG. 5, item 501 represents what kind of subject the trained model managed by the information processing apparatus 102 corresponds to.

例えば、項目501の「花」は、花の構図アシスト用の学習済みモデルに対応する。花の構図アシスト用の学習済みモデルは、被写体としての花を撮影する際に最適な構図を発見するための推論を行う学習済みモデルである。また、図5の例では、同種類の被写体として「人物」について圧縮度合いがそれぞれ異なる複数の学習済みモデルが管理されている。例えば、情報処理装置102は、画像から認識された被写体を入力とし、被写体を撮影する際の最適な構図を正解データとして、機械学習を行うことにより、被写体ごとの学習済みモデルを生成してもよい。 For example, item 501 "flower" corresponds to a trained model for flower composition assistance. The trained model for assisting the composition of a flower is a trained model that makes inferences for finding the optimum composition when photographing a flower as a subject. Further, in the example of FIG. 5, a plurality of trained models having different compression degrees for "persons" are managed as subjects of the same type. For example, the information processing device 102 may generate a trained model for each subject by performing machine learning with the subject recognized from the image as an input and the optimum composition when shooting the subject as correct answer data. Good.

項目502は、被写体ごとの学習済みモデルの圧縮度合いを表す。項目503は、学習済みモデルのバージョンを表しており、学習済みモデルの更新状況を管理するために使用される。ここで、オリジナルの学習済みモデル自体が更新される際、同種類の圧縮度の違う学習済みモデルが一括で更新または破棄されてもよい。 Item 502 represents the degree of compression of the trained model for each subject. Item 503 represents the version of the trained model and is used to manage the update status of the trained model. Here, when the original trained model itself is updated, trained models of the same type but different compression degrees may be updated or discarded at once.

次に、撮像装置300の動作について説明する。図6は、撮像装置300の処理の流れを示すフローチャートである。本実施形態では、撮像装置300は、撮影を行う際に認識した被写体の種類に応じて構図アシスト用の学習済みモデルを適用する。本実施形態の構図アシスト機能はあくまでも一例であり、本実施形態の態様には限定されない。ステップS601において、撮像装置300は、ユーザからの撮影開始の指示を受け付けて、撮影を開始する。システム制御部308は、電源スイッチ320の押下による撮像装置30の起動、または第1シャッタースイッチ315の押下による第1シャッタースイッチ信号SW1の発生等に応じて、撮影開始の指示を受け付けたかを判定してもよい。 Next, the operation of the image pickup apparatus 300 will be described. FIG. 6 is a flowchart showing a processing flow of the image pickup apparatus 300. In the present embodiment, the image pickup apparatus 300 applies a learned model for composition assist according to the type of the subject recognized at the time of shooting. The composition assist function of the present embodiment is merely an example, and is not limited to the embodiment of the present embodiment. In step S601, the image pickup apparatus 300 receives an instruction from the user to start shooting and starts shooting. The system control unit 308 determines whether the instruction to start shooting has been received in response to the activation of the imaging device 30 by pressing the power switch 320 or the generation of the first shutter switch signal SW1 by pressing the first shutter switch 315. You may.

ステップS602において、システム制御部308は、ユーザが撮影中のライブビュー画像から被写体の認識を行う。被写体の認識は、被写体認識用の学習済みモデルを用いた推論により行われてもよいし、他の被写体認識手法が用いられてもよい。ステップS603において、システム制御部308は、認識被写体が変化したか、または撮像装置300のリソース状態が変化したかを判定する。リソース状態は、例えば、撮像装置300のCPUやメモリ等の使用率である。システム制御部308は、例えば、リソース状態を示す情報を保持している。ここで、リソース状態の変化に関して、システム制御部308は、後述するステップS605にて保持される情報に基づいて、ステップS603の判定処理を行ってもよい。システム制御部308は、モード切替スイッチ314の押下による撮影モードの切り替え等、リソース状態が変化すると予想される処理が行われたかに基づいて、リソース状態が変化したかを判定してもよい。 In step S602, the system control unit 308 recognizes the subject from the live view image being captured by the user. The subject recognition may be performed by inference using a trained model for subject recognition, or another subject recognition method may be used. In step S603, the system control unit 308 determines whether the recognition subject has changed or the resource state of the image pickup apparatus 300 has changed. The resource state is, for example, the usage rate of the CPU, memory, etc. of the image pickup apparatus 300. The system control unit 308 holds, for example, information indicating the resource status. Here, regarding the change in the resource state, the system control unit 308 may perform the determination process in step S603 based on the information held in step S605 described later. The system control unit 308 may determine whether or not the resource state has changed based on whether or not processing that is expected to change the resource state, such as switching the shooting mode by pressing the mode changeover switch 314, has been performed.

システム制御部308は、認識被写体が変化したか、またはリソース状態が変化したと判定した場合、処理をステップS604に進める。ステップS604において、システム制御部308は、学習済みモデルを取得するリクエスト、および現在のリソース状態と前回のリクエスト送信時のリソース状態を、情報処理装置102に送信する制御を行う。ここでのリクエストは、認識した被写体を撮影するための構図アシスト用学習済みモデルである。ネットワークI/F326は、リクエストとともに、現在のリソース状態および前回のリクエスト送信時のリソース情報を、ネットワーク106を介して、情報処理装置102に送信する。ステップS605において、システム制御部308は、現在の撮像装置300のリソース状態の情報を保持する。保持されたリソース状態の情報は、ステップS603においてリソース状態の変化を判定するために利用され得る。また、保持されたリソース状態の情報は、ステップS604において、次回のリクエストを送信するときの前回のリクエストを送信したときのリソース状態としても利用され得る。 When the system control unit 308 determines that the recognition subject has changed or the resource state has changed, the system control unit 308 proceeds to the process in step S604. In step S604, the system control unit 308 controls to transmit the request for acquiring the trained model and the current resource state and the resource state at the time of the previous request transmission to the information processing device 102. The request here is a trained model for composition assist for shooting a recognized subject. The network I / F 326 transmits the current resource status and the resource information at the time of the previous request transmission to the information processing apparatus 102 via the network 106 together with the request. In step S605, the system control unit 308 holds information on the resource state of the current image pickup apparatus 300. The retained resource state information can be used to determine a change in the resource state in step S603. Further, the retained resource state information can also be used as the resource state when the previous request is transmitted when the next request is transmitted in step S604.

ネットワークI/F326は、情報処理装置102から、ネットワーク107を介して、撮像装置300のリソース状態に応じて圧縮された学習済みモデルを受信する。ステップS606において、システム制御部308は、情報処理装置102から受信した学習済みモデルを適用する。ステップS603において、システム制御部308は、認識被写体が変化しておらず、且つリソース状態が変化していないと判定した場合、処理をステップS607に進める。また、ステップS606の処理の後、システム制御部308は、処理をステップS607に進める。ステップS607において、システム制御部308は、撮像装置300に適用されている学習済みモデルを用いて構図アシスト用の推論を実行する。 The network I / F 326 receives the trained model compressed according to the resource state of the image pickup apparatus 300 from the information processing apparatus 102 via the network 107. In step S606, the system control unit 308 applies the trained model received from the information processing device 102. In step S603, when the system control unit 308 determines that the recognition subject has not changed and the resource state has not changed, the system control unit 308 proceeds to the process in step S607. Further, after the process of step S606, the system control unit 308 advances the process to step S607. In step S607, the system control unit 308 executes inference for composition assist using the trained model applied to the image pickup apparatus 300.

システム制御部308が、従前に適用されていた学習済みモデルまたは新たに適用された学習済みモデルに対して、ステップS602で認識した被写体を入力すると、認識された被写体に最適な構図が推論結果として得られる。ステップS608において、システム制御部308は、学習済みモデルを用いた推論結果に応じて、構図アシストを実行する。学習済みモデルを用いた推論は、例えば、GPU(グラフィックス・プロセッシング・ユニット)等により行われてもよい。 When the system control unit 308 inputs the subject recognized in step S602 into the previously applied trained model or the newly applied trained model, the optimum composition for the recognized subject is inferred as a result. can get. In step S608, the system control unit 308 executes composition assist according to the inference result using the trained model. Inference using the trained model may be performed by, for example, a GPU (graphics processing unit) or the like.

ステップS609において、システム制御部308は、撮影を継続するかを判定する。ステップS609において、システム制御部308は、撮影を継続すると判定した場合、処理をステップS602に戻す。ステップS609において、システム制御部308は、撮影を継続しないと判定した場合、処理を終了させる。システム制御部308は、撮影を継続するかを、構図アシストの実行が完了してから一定時間経過したかを基準として判定してもよい。また、システム制御部308は、撮影を継続するかを、電源スイッチ320の押下により撮像装置300が停止したか、もしくは第2シャッタースイッチ316の押下による第2シャッタースイッチ信号SW2が発生したか等を、基準として判定してもよい。 In step S609, the system control unit 308 determines whether to continue shooting. If the system control unit 308 determines in step S609 to continue shooting, the process returns to step S602. In step S609, when the system control unit 308 determines that the shooting is not continued, the system control unit 308 ends the process. The system control unit 308 may determine whether to continue shooting based on whether a certain period of time has elapsed after the execution of composition assist is completed. Further, the system control unit 308 determines whether to continue shooting, whether the imaging device 300 is stopped by pressing the power switch 320, or whether the second shutter switch signal SW2 is generated by pressing the second shutter switch 316, and the like. , May be judged as a reference.

上述したように、撮像装置300は、認識被写体に変化が生じた場合、またはリソース状態に変化が生じた場合、リソース状態の情報とともに学習済みモデルのリクエストを情報処理装置102に送信する。情報処理装置102は、撮像装置300のリソース状態に応じた圧縮度合いで圧縮した学習済みモデルを撮像装置300に送信する。そして、撮像装置300は、適用する学習済みモデルを切り替える。これにより、撮像装置300は、多種類の学習済みモデルを保持する必要がなくなり、リソース状態に応じた推論を行うことが可能となる。 As described above, when the recognition subject changes or the resource state changes, the imaging device 300 transmits a request for the trained model to the information processing device 102 together with the resource state information. The information processing device 102 transmits the learned model compressed to the degree of compression according to the resource state of the image pickup device 300 to the image pickup device 300. Then, the image pickup apparatus 300 switches the trained model to be applied. As a result, the imaging device 300 does not need to hold many types of trained models, and can make inferences according to the resource state.

次に、情報処理装置102の動作について説明する。図7は、情報処理装置102の処理の流れの一例を示すフローチャートである。ステップS701において、情報処理装置102のCPU206は、撮像装置300が送信した学習済みモデルのリクエストとともに、撮像装置300の現在のリソース状態および前回のリクエスト時のリソース状態を受信する。ステップS702において、CPU206は、撮像装置300の現在のリソース状態から、撮像装置300に適用可能な限界の圧縮度合いを決定する。本実施形態では、CPU206は、図4に示されるテーブルを参照して、撮像装置300の現在のリソース状態(項目401)に対応する圧縮度合い(項目402)を決定する。なお、CPU206は、リソース状態に応じた圧縮度合いを、任意の手法で決定してもよい。 Next, the operation of the information processing device 102 will be described. FIG. 7 is a flowchart showing an example of the processing flow of the information processing apparatus 102. In step S701, the CPU 206 of the information processing device 102 receives the current resource state of the image pickup device 300 and the resource state at the time of the previous request together with the request of the learned model transmitted by the image pickup device 300. In step S702, the CPU 206 determines the limit compression degree applicable to the image pickup apparatus 300 from the current resource state of the image pickup apparatus 300. In the present embodiment, the CPU 206 determines the degree of compression (item 402) corresponding to the current resource state (item 401) of the image pickup apparatus 300 with reference to the table shown in FIG. The CPU 206 may determine the degree of compression according to the resource state by any method.

ステップS703において、CPU206は、ステップS702で決定された圧縮度合いの学習済みモデルが情報処理装置102にキャッシュされているかを判定する。CPU206は、ステップS702で決定された圧縮度合いの学習済みモデルがキャッシュされていないと判定した場合、処理をステップS704に進める。ステップS704において、CPU206は、ステップS702で決定された圧縮度合いの学習済みモデルを生成する。ステップS704における学習済みモデルの生成に関する詳細な処理については後述する。ここで、情報処理装置102に、生成する学習済みモデルと同種類、且つ圧縮度合いが所定度合い以上高い学習済みモデルをキャッシュされているとする。この場合、CPU206は、ステップS703で決定された圧縮度合いの学習済みモデルを生成する前に、上記の学習済みモデルを撮像装置300に送信する制御を行い、撮像装置300に適用させてもよい。これにより、圧縮した学習済みモデル(構図アシスト用学習済みモデル)を生成するまでの待ち時間を削減することができる。 In step S703, the CPU 206 determines whether the learned model of the degree of compression determined in step S702 is cached in the information processing apparatus 102. When the CPU 206 determines that the trained model of the degree of compression determined in step S702 is not cached, the CPU 206 advances the process to step S704. In step S704, the CPU 206 generates a trained model of the degree of compression determined in step S702. The detailed processing related to the generation of the trained model in step S704 will be described later. Here, it is assumed that the information processing apparatus 102 caches a trained model of the same type as the trained model to be generated and having a compression degree higher than a predetermined degree. In this case, the CPU 206 may control the transmission of the trained model to the image pickup apparatus 300 and apply it to the image pickup apparatus 300 before generating the trained model of the degree of compression determined in step S703. As a result, it is possible to reduce the waiting time until the compressed trained model (trained model for composition assist) is generated.

ステップS703において、CPU206が、ステップS702で決定された圧縮度合いの学習済みモデルが情報処理装置102にキャッシュされていると判定した場合、CPU206は、処理をステップS705に進める。ステップS705において、CPU206は、対象の学習済みモデルを撮像装置300に送信する制御を行う。対象の学習済みモデルは、ステップS704で生成される学習済みモデル、または情報処理装置102にキャッシュされていた学習済みモデルである。対象の学習済みモデルは、撮像装置300のリソース状態に応じて圧縮された学習済みモデルである。対象の学習済みモデルは、情報処理装置102から、ネットワーク107を介して、撮像装置300に送信される。 If the CPU 206 determines in step S703 that the learned model of the degree of compression determined in step S702 is cached in the information processing apparatus 102, the CPU 206 advances the process to step S705. In step S705, the CPU 206 controls to transmit the trained model of the target to the image pickup apparatus 300. The target trained model is the trained model generated in step S704 or the trained model cached in the information processing device 102. The target trained model is a trained model compressed according to the resource state of the image pickup apparatus 300. The trained model of the target is transmitted from the information processing device 102 to the image pickup device 300 via the network 107.

ステップS706において、CPU206は、現在の撮像装置300のリソース状態と前回リクエスト時のリソース状態(前回にリクエストが送信されたときの撮像装置300のリソース状態)とを比較する。ステップS707において、CPU206は、ステップS706の比較結果から、今後の撮像装置300のリソース状態の変化を予測する。例えば、撮像装置300の過去のリソース状態の変化の履歴から、リソース状態としてのCPU使用率が連続的に上昇している場合、撮像装置300のCPU使用率が今後も上昇すると予想できる。また、撮像装置300の前回のリクエスト時のCPU使用率が、大幅に上昇していた場合(所定量を超えて上昇していた場合)、撮像装置300のCPU使用率が今後も上昇すると予想できる。ステップS707において、CPU206は、現在、撮像装置300に適用されている学習済みモデルの再圧縮が必要であると予測したかを判定する。CPU206は、学習済みモデルの再圧縮が必要でないと予測した場合、処理は終了させる。 In step S706, the CPU 206 compares the current resource state of the image pickup apparatus 300 with the resource state at the time of the previous request (the resource state of the image pickup apparatus 300 when the request was transmitted last time). In step S707, the CPU 206 predicts a future change in the resource state of the image pickup apparatus 300 from the comparison result in step S706. For example, from the history of past changes in the resource state of the imaging device 300, when the CPU usage rate as the resource state is continuously increasing, it can be expected that the CPU usage rate of the imaging device 300 will continue to increase in the future. Further, if the CPU usage rate of the image pickup device 300 at the time of the previous request has increased significantly (when the increase exceeds a predetermined amount), it can be expected that the CPU usage rate of the image pickup device 300 will continue to increase in the future. .. In step S707, the CPU 206 determines whether it has predicted that the trained model currently applied to the imaging device 300 needs to be recompressed. When the CPU 206 predicts that the trained model does not need to be recompressed, the process ends.

CPU206は、学習済みモデルの再圧縮が必要であると予測した場合、処理をステップS708に進める。ステップS708において、CPU206は、ステップS702で決定された圧縮度合いの学習済みモデルが、情報処理装置102にキャッシュされているかを判定する。CPU206は、決定された圧縮度合いの学習済みモデルがキャッシュされていると判定した場合、処理は終了する。一方、CPU206は、決定された圧縮度合いの学習済みモデルがキャッシュされていないと判定した場合、処理をステップS709に進める。ステップS709において、CPU206は、ステップS704と同様に、学習済みモデルの生成を行う。生成された学習済みモデルは、キャッシュされる。そして、処理は、終了する。 When the CPU 206 predicts that the trained model needs to be recompressed, the process proceeds to step S708. In step S708, the CPU 206 determines whether the learned model of the degree of compression determined in step S702 is cached in the information processing apparatus 102. When the CPU 206 determines that the trained model of the determined compression degree is cached, the process ends. On the other hand, when the CPU 206 determines that the trained model of the determined compression degree is not cached, the CPU 206 advances the process to step S709. In step S709, the CPU 206 generates a trained model in the same manner as in step S704. The generated trained model is cached. Then, the process ends.

上述したように、CPU206は、撮像装置300の現在のリソース状態と前回のリクエスト時の撮像装置300のリソース状態とに基づいて、学習済みモデルの圧縮の必要性を予測する。CPU206は、前回のリクエスト時よりも前の撮像装置300のリソース状態を保持し、保持している各リソース状態に基づいて、学習済みモデルの圧縮の必要性を予測してよい。例えば、上述したように、CPU使用率が連続的に上昇している場合、学習済みモデルの圧縮は必要であると予測される。従って、情報処理装置102は、後の撮像装置のリソース状態の変化の予測に合わせた構図アシスト用学習済みモデルを予め圧縮し、保持しておくことができる。また、情報処理装置102は、ステップS702において学習済みモデルの圧縮度合いを決定した後、リクエストされた学習済みモデル以外の学習済みモデルを、ステップS702で決定された圧縮度合いで圧縮し、キャッシュしてもよい。これにより、情報処理装置102は、リクエストされた被写体以外の構図アシスト用学習済みモデルを予め圧縮して保持しておくことができる。 As described above, the CPU 206 predicts the need for compression of the trained model based on the current resource state of the imaging device 300 and the resource state of the imaging device 300 at the time of the previous request. The CPU 206 holds the resource state of the image pickup apparatus 300 before the previous request, and may predict the necessity of compression of the trained model based on each held resource state. For example, as described above, if the CPU usage is continuously increasing, it is predicted that compression of the trained model is necessary. Therefore, the information processing apparatus 102 can pre-compress and hold the composition assist trained model in accordance with the prediction of the change in the resource state of the imaging apparatus later. Further, the information processing apparatus 102 determines the degree of compression of the trained model in step S702, and then compresses and caches the trained models other than the requested trained model with the degree of compression determined in step S702. May be good. As a result, the information processing device 102 can pre-compress and hold the learned model for composition assist other than the requested subject.

次に、ステップS704およびステップS708の学習済みモデルの生成について説明する。図8は、学習済みモデルの生成処理の一例を示すフローチャートである。ステップS801において、CPU206は、リクエストの対象となる圧縮度合いの学習済みモデルが、キャッシュされている学習済みモデルよりも高い圧縮が必要かを判定する。ステップS801において、CPU206は、現在キャッシュされている学習済みモデルよりも高い度合いで学習済みモデルを圧縮する必要があると判定した場合、処理をステップS802に進める。ステップS802において、CPU206は、現在、情報処理装置102にキャッシュされている圧縮済みの学習済みモデルを、ステップS702で決定された圧縮度合いで再圧縮する。これにより、再圧縮された学習済みモデルが生成される。 Next, the generation of the trained model in step S704 and step S708 will be described. FIG. 8 is a flowchart showing an example of the trained model generation process. In step S801, the CPU 206 determines whether the trained model of the degree of compression to be requested requires higher compression than the cached trained model. If the CPU 206 determines in step S801 that the trained model needs to be compressed to a higher degree than the currently cached trained model, the process proceeds to step S802. In step S802, the CPU 206 recompresses the compressed trained model currently cached in the information processing apparatus 102 to a degree of compression determined in step S702. This will generate a recompressed trained model.

ステップS801にて、CPU206は、現在キャッシュされている学習済みモデルよりも高い度合いで学習済みモデルを圧縮する必要がないと判定した場合、処理をステップS803に進める。ステップS803において、CPU206は、圧縮されていないオリジナルの学習済みモデルを、ステップS702で決定された圧縮度合いで圧縮する。これにより、圧縮された学習済みモデルが生成される。ステップS804において、CPU206は、ステップS802もしくはステップS803で生成された学習済みモデルをキャッシュする。以上により、ステップS704またはステップS709の処理は終了する。 If the CPU 206 determines in step S801 that it is not necessary to compress the trained model to a higher degree than the currently cached trained model, the process proceeds to step S803. In step S803, the CPU 206 compresses the uncompressed original trained model to the degree of compression determined in step S702. This will generate a compressed trained model. In step S804, the CPU 206 caches the trained model generated in step S802 or step S803. As a result, the process of step S704 or step S709 ends.

以上、説明したように、情報処理装置102は、撮像装置300から学習済みモデルのリクエストとともに、リソース状態を受信する。そして、情報処理装置102は、撮像装置300のリソース状態に応じた圧縮度合いで、リクエストの対象となる学習済みモデルを圧縮し、圧縮された学習済みモデルを撮像装置300に送信する。これにより、撮像装置300のリソース状態が動的に変化しても、撮像装置300は、動的な変化に対応した学習済みモデルを用いて推論を行うことができる。その結果、学習済みモデルによる推論精度が低下を抑制することができる。上述した実施形態では、学習済みモデルとして、被写体ごとの構図アシスト用の学習済みモデルが適用される例を説明したが、任意の学習済みモデルが適用されてもよい。例えば、本実施形態の学習済みモデルは、被写体を認識する学習済みモデル等であってもよい。 As described above, the information processing device 102 receives the resource state together with the request for the trained model from the image pickup device 300. Then, the information processing device 102 compresses the trained model to be requested by the degree of compression according to the resource state of the image pickup device 300, and transmits the compressed learned model to the image pickup device 300. As a result, even if the resource state of the image pickup apparatus 300 changes dynamically, the image pickup apparatus 300 can make inferences using the trained model corresponding to the dynamic change. As a result, it is possible to suppress a decrease in the inference accuracy of the trained model. In the above-described embodiment, an example in which the trained model for composition assist for each subject is applied as the trained model has been described, but any trained model may be applied. For example, the trained model of the present embodiment may be a trained model that recognizes a subject.

また、情報処理装置102は、撮像装置300に送信する学習済みモデルの圧縮度合いを示す情報を、圧縮された学習済みモデルとともに送信してもよい。このとき、撮像装置300のシステム制御部308は、現在のリソース状態とともに圧縮度合いを示す情報を表示部310に表示してもよい。例えば、表示部310には、現在のリソース状態としてCPU使用率が65%であることを示す情報、および圧縮度合いを示す情報が8bitであることを示す情報が表示されてもよい。これにより、撮像装置300のユーザに対して、学習済みモデルの推論精度がどの程度であるかを提示できる。 Further, the information processing device 102 may transmit information indicating the degree of compression of the trained model to be transmitted to the image pickup device 300 together with the compressed trained model. At this time, the system control unit 308 of the image pickup apparatus 300 may display information indicating the degree of compression together with the current resource state on the display unit 310. For example, the display unit 310 may display information indicating that the CPU usage rate is 65% as the current resource state and information indicating that the information indicating the degree of compression is 8 bits. Thereby, it is possible to present to the user of the image pickup apparatus 300 how much the inference accuracy of the trained model is.

次に、変形例について説明する。図9は、変形例におけるシステム900の構成例を示す図である。システム900において、撮像装置101と中継装置901とは、ネットワーク902、905を介して接続されている。中継装置901と情報処理装置102とは、ネットワーク903、904を介して接続されている。情報処理装置102は、複数のオリジナルの学習済みモデル103を保持している。中継装置901は、図7および図8の処理を実施する。中継装置901の構成は、図2の構成を採用することができる。中継装置901は、図8のステップS803において、ネットワーク903、904を介して、情報処理装置102からオリジナルの学習済みモデル104を取得する。そして、中継装置901は、図7のステップS702で決定された圧縮度合いで、取得したオリジナルの学習済みモデルを圧縮する。つまり、中継装置901が情報処理装置102の多くの処理を担い、情報処理装置102が行う通信は、中継装置901との間の通信(オリジナルの学習済みモデルに関する通信)のみになる。これにより、情報処理装置102の通信回数の低減を図ることができる。例えば、情報処理装置102が、上述したようにクラウドサーバである場合、クラウドサーバの処理負荷の軽減が図られる。なお、上述した、現在のリソース状態および圧縮度合いを示す情報は、中継装置901の画面に表示されてもよい。 Next, a modified example will be described. FIG. 9 is a diagram showing a configuration example of the system 900 in the modified example. In the system 900, the image pickup device 101 and the relay device 901 are connected via networks 902 and 905. The relay device 901 and the information processing device 102 are connected to each other via networks 903 and 904. The information processing device 102 holds a plurality of original trained models 103. The relay device 901 carries out the processes shown in FIGS. 7 and 8. As the configuration of the relay device 901, the configuration of FIG. 2 can be adopted. The relay device 901 acquires the original trained model 104 from the information processing device 102 via the networks 903 and 904 in step S803 of FIG. Then, the relay device 901 compresses the acquired original trained model with the degree of compression determined in step S702 of FIG. 7. That is, the relay device 901 is responsible for most of the processing of the information processing device 102, and the communication performed by the information processing device 102 is only the communication with the relay device 901 (communication related to the original learned model). As a result, the number of communications of the information processing device 102 can be reduced. For example, when the information processing device 102 is a cloud server as described above, the processing load of the cloud server can be reduced. The above-mentioned information indicating the current resource state and the degree of compression may be displayed on the screen of the relay device 901.

以上、本発明の好ましい実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。本発明は、上述の各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and modifications can be made within the scope of the gist thereof. The present invention supplies a program that realizes one or more functions of each of the above-described embodiments to a system or device via a network or storage medium, and one or more processors of the computer of the system or device implements the program. It can also be realized by the process of reading and executing. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 システム
101 撮像装置
102 情報処理装置
206 CPU
211 ネットワークI/F
308 システム制御部
326 ネットワークI/F
901 中継装置
100 System 101 Imaging device 102 Information processing device 206 CPU
211 Network I / F
308 System Control Unit 326 Network I / F
901 relay device

Claims (16)

端末から学習済みモデルのリクエストともに前記端末のリソース状態を受信する受信手段と、
前記リソース状態に応じた圧縮度合いで前記リクエストの対象となる学習済みモデルを圧縮する制御を行う制御手段と、
圧縮された前記学習済みモデルを前記端末に送信する送信手段と、
を備えることを特徴とする情報処理装置。
A receiving means for receiving the resource status of the terminal together with the request of the trained model from the terminal, and
A control means that controls compression of the trained model that is the target of the request with a compression degree according to the resource state, and
A transmission means for transmitting the compressed trained model to the terminal, and
An information processing device characterized by being equipped with.
前記制御手段は、圧縮された前記学習済みモデルをキャッシュすることを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the control means caches the compressed trained model. 前記制御手段は、前記リソース状態に応じた圧縮度合いで圧縮された学習済みモデルがキャッシュされている場合、前記圧縮する制御を行うことなく、キャッシュされている前記学習済みモデルを送信させる制御を行うことを特徴とする請求項2に記載の情報処理装置。 When the trained model compressed with the degree of compression according to the resource state is cached, the control means controls to transmit the cached trained model without performing the compression control. The information processing apparatus according to claim 2. 前記制御手段は、同種類、且つ圧縮度合いがそれぞれ異なる複数の学習済みモデルをキャッシュすることを特徴とする請求項1乃至3のうち何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the control means caches a plurality of trained models of the same type and different degrees of compression. 前記端末は、撮像装置であり、
前記受信手段は、前記撮像装置が認識する被写体が変化した場合、または前記撮像装置のリソース状態が変化した場合に、前記リクエストとともに前記リソース状態を受信することを特徴とする請求項1乃至4のうち何れか1項に記載の情報処理装置。
The terminal is an imaging device and
The receiving means according to any one of claims 1 to 4, wherein the receiving means receives the resource state together with the request when the subject recognized by the image pickup apparatus changes or the resource state of the image pickup apparatus changes. The information processing device according to any one of the items.
前記制御手段は、前記リクエストの対象となる学習済みモデルと同種類且つ圧縮度合いが所定度合いより高い学習済みモデルがキャッシュされている場合、該所定度合いより高い学習済みモデルを、前記リクエストの対象となる学習済みモデルの送信よりも前に、前記端末に送信させる制御を行うことを特徴とする請求項1乃至5のうち何れか1項に記載の情報処理装置。 When a trained model of the same type as the trained model to be the target of the request and having a compression degree higher than a predetermined degree is cached, the control means sets the trained model higher than the predetermined degree as the target of the request. The information processing apparatus according to any one of claims 1 to 5, wherein the terminal is controlled to transmit the trained model before the transmission of the trained model. 前記制御手段は、前記リクエストとともに受信した前記端末のリソース状態と前回にリクエストが送信されたときの前記端末のリソース状態とに基づいて、前記端末のリソース状態を予測し、予測されたリソース状態に基づいて、前記圧縮された学習済みモデルを再圧縮するかを判定することを特徴とする請求項1乃至6のうち何れか1項に記載の情報処理装置。 The control means predicts the resource state of the terminal based on the resource state of the terminal received together with the request and the resource state of the terminal when the request was last transmitted, and sets the predicted resource state. The information processing apparatus according to any one of claims 1 to 6, wherein it determines whether to recompress the compressed trained model based on the method. 前記制御手段は、前記再圧縮をすると判定した場合、再圧縮された学習済みモデルをキャッシュすることを特徴とする請求項7に記載の情報処理装置。 The information processing apparatus according to claim 7, wherein the control means caches the recompressed learned model when it is determined to perform the recompression. 前記制御手段は、前記リクエストの対象となる学習済みモデルを圧縮する制御を行った場合、前記リクエストの対象となる学習済みモデル以外の学習済みモデルを、同じ圧縮度合いで圧縮する制御を行うことを特徴とする請求項1乃至8のうち何れか1項に記載の情報処理装置。 When the control means controls to compress the trained model that is the target of the request, it controls to compress the trained models other than the trained model that is the target of the request with the same degree of compression. The information processing apparatus according to any one of claims 1 to 8. 前記学習済みモデルの圧縮は、パラメータの量子化により行われることを特徴とする請求項1乃至9のうち何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 9, wherein compression of the trained model is performed by quantization of parameters. 端末から学習済みモデルのリクエストともに前記端末のリソース状態を受信し、情報処理装置からオリジナルの学習済みモデルを受信する受信手段と、
前記リソース状態に応じた圧縮度合いで、前記端末から受信した前記リクエストの対象であり且つ前記情報処理装置から受信したオリジナルの学習済みモデルを圧縮する制御を行う制御手段と、
圧縮された前記学習済みモデルを前記端末に送信する送信手段と、
を備えることを特徴とする中継装置。
A receiving means that receives the resource state of the terminal together with the request of the trained model from the terminal and receives the original trained model from the information processing device.
A control means that controls compression of the original learned model that is the target of the request received from the terminal and received from the information processing device with a compression degree according to the resource state.
A transmission means for transmitting the compressed trained model to the terminal, and
A relay device characterized by being provided with.
端末と、情報処理装置と、を備えるシステムであって、
前記端末は、
学習済みモデルのリクエストとともにリソース状態を前記情報処理装置に送信するリクエスト手段、を備え、
前記情報処理装置は、
前記リクエストおよび前記リソース状態を受信する受信手段と、
前記リソース状態に応じた圧縮度合いで前記リクエストの対象となる学習済みモデルを圧縮する制御を行う制御手段と、
圧縮された前記学習済みモデルを前記端末に送信する送信手段と、
を備えることを特徴とするシステム。
A system equipped with a terminal and an information processing device.
The terminal
A request means for transmitting a resource state to the information processing apparatus together with a request for a trained model is provided.
The information processing device
A receiving means for receiving the request and the resource state, and
A control means that controls compression of the trained model that is the target of the request with a compression degree according to the resource state, and
A transmission means for transmitting the compressed trained model to the terminal, and
A system characterized by being equipped with.
端末から学習済みモデルのリクエストともに前記端末のリソース状態を受信する工程と、
前記リソース状態に応じた圧縮度合いで前記リクエストの対象となる学習済みモデルを圧縮する制御を行う工程と、
圧縮された前記学習済みモデルを前記端末に送信する工程と、
を備えることを特徴とする情報処理装置の制御方法。
The process of receiving the resource status of the terminal together with the request of the trained model from the terminal,
A process of controlling compression of the trained model to be the target of the request with a compression degree according to the resource state, and a step of performing compression.
The process of transmitting the compressed trained model to the terminal, and
A control method for an information processing device, which comprises.
端末から学習済みモデルのリクエストともに前記端末のリソース状態を受信し、情報処理装置からオリジナルの学習済みモデルを受信する工程と、
前記リソース状態に応じた圧縮度合いで、前記端末から受信した前記リクエストの対象であり且つ前記情報処理装置から受信したオリジナルの学習済みモデルを圧縮する制御を行う工程と、
圧縮された前記学習済みモデルを前記端末に送信する工程と、
を備えることを特徴とする中継装置の制御方法。
The process of receiving the resource status of the terminal together with the request of the trained model from the terminal and receiving the original trained model from the information processing device.
A step of controlling compression of the original learned model that is the target of the request received from the terminal and received from the information processing device at a compression degree according to the resource state.
The process of transmitting the compressed trained model to the terminal, and
A method for controlling a relay device, which comprises.
請求項1乃至10のうち何れか1項に記載の情報処理装置の各手段をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each means of the information processing apparatus according to any one of claims 1 to 10. 請求項11に記載の中継装置の各手段をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each means of the relay device according to claim 11.
JP2019219692A 2019-12-04 2019-12-04 Information processing device, relay device, system, information processing device control method, relay device control method and program Active JP7346267B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019219692A JP7346267B2 (en) 2019-12-04 2019-12-04 Information processing device, relay device, system, information processing device control method, relay device control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019219692A JP7346267B2 (en) 2019-12-04 2019-12-04 Information processing device, relay device, system, information processing device control method, relay device control method and program

Publications (2)

Publication Number Publication Date
JP2021089582A true JP2021089582A (en) 2021-06-10
JP7346267B2 JP7346267B2 (en) 2023-09-19

Family

ID=76220441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019219692A Active JP7346267B2 (en) 2019-12-04 2019-12-04 Information processing device, relay device, system, information processing device control method, relay device control method and program

Country Status (1)

Country Link
JP (1) JP7346267B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024009632A1 (en) * 2022-07-07 2024-01-11 コニカミノルタ株式会社 Model generation apparatus, model generation method, and program
KR102661026B1 (en) * 2022-12-21 2024-04-25 한국과학기술원 Inference method using dynamic resource-based adaptive deep learning model and deep learning model inference device performing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256144A (en) * 2000-03-10 2001-09-21 Yamaha Corp Client device, server device and server-client system
WO2015151159A1 (en) * 2014-03-31 2015-10-08 株式会社 日立製作所 Data transfer system and data transfer method
WO2018142765A1 (en) * 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 Learned model provision method, and learned model provision device
JP2019096285A (en) * 2017-11-17 2019-06-20 パナソニックIpマネジメント株式会社 Information processing method and information processing system
KR20190090141A (en) * 2018-01-24 2019-08-01 주식회사 제네시스랩 Machine learning system using joint learning and the method thereof
CN110210350A (en) * 2019-05-22 2019-09-06 北京理工大学 A kind of quick parking space detection method based on deep learning
CN110516602A (en) * 2019-08-28 2019-11-29 杭州律橙电子科技有限公司 A kind of public traffice passenger flow statistical method based on monocular camera and depth learning technology

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256144A (en) * 2000-03-10 2001-09-21 Yamaha Corp Client device, server device and server-client system
WO2015151159A1 (en) * 2014-03-31 2015-10-08 株式会社 日立製作所 Data transfer system and data transfer method
WO2018142765A1 (en) * 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 Learned model provision method, and learned model provision device
JP2019096285A (en) * 2017-11-17 2019-06-20 パナソニックIpマネジメント株式会社 Information processing method and information processing system
KR20190090141A (en) * 2018-01-24 2019-08-01 주식회사 제네시스랩 Machine learning system using joint learning and the method thereof
CN110210350A (en) * 2019-05-22 2019-09-06 北京理工大学 A kind of quick parking space detection method based on deep learning
CN110516602A (en) * 2019-08-28 2019-11-29 杭州律橙电子科技有限公司 A kind of public traffice passenger flow statistical method based on monocular camera and depth learning technology

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024009632A1 (en) * 2022-07-07 2024-01-11 コニカミノルタ株式会社 Model generation apparatus, model generation method, and program
KR102661026B1 (en) * 2022-12-21 2024-04-25 한국과학기술원 Inference method using dynamic resource-based adaptive deep learning model and deep learning model inference device performing method

Also Published As

Publication number Publication date
JP7346267B2 (en) 2023-09-19

Similar Documents

Publication Publication Date Title
JP4154431B2 (en) Imaging apparatus and display control method
US20160165142A1 (en) Image capturing apparatus, control method therefor, and storage medium
JP4926494B2 (en) Image processing apparatus and control method
JP2013145978A (en) Imaging apparatus, control method thereof, program, and image processing system
CN115136570B (en) Function integration method, system and computer readable medium of external equipment of Internet of things
JP7346267B2 (en) Information processing device, relay device, system, information processing device control method, relay device control method and program
US9967473B2 (en) Information processing apparatus, information processing method, and program
CN115016885B (en) Virtual machine garbage recycling operation method and electronic equipment
CN111314606B (en) Photographing method and device, electronic equipment and storage medium
JP2006352255A (en) Image input system and its power supply alteration method and program
JP2019205161A (en) Imaging apparatus, control method of imaging apparatus, and program
US10761794B2 (en) Image processing apparatus and program
KR20110021194A (en) Method and apparatus for controlling display in an image transmission
JP7005292B2 (en) Imaging equipment, control methods and programs
JP6355520B2 (en) Server apparatus, control method thereof, system, program, and storage medium
JP6463054B2 (en) Electronic device, control method therefor, program, and storage medium
JP7307560B2 (en) Image display device, image supply device, control method and program
JP5159474B2 (en) COMMUNICATION DEVICE, ITS CONTROL METHOD, PROGRAM
JP2021060630A (en) Intermediate server apparatus, information processing apparatus, and communication method
JP6590560B2 (en) Imaging control apparatus and control method thereof
JP6355392B2 (en) Recording apparatus, control method therefor, and storage medium
US20240179395A1 (en) Imaging apparatus, control method for the same, and storage medium
JP2019148994A (en) Information processing device, information processing method, and program
US20240284033A1 (en) Display apparatus, control method thereof and storage medium
JP2024049938A (en) Electronic device, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R151 Written notification of patent or utility model registration

Ref document number: 7346267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151