JP2023011341A - Information processing device and control method for the same - Google Patents

Information processing device and control method for the same Download PDF

Info

Publication number
JP2023011341A
JP2023011341A JP2021115146A JP2021115146A JP2023011341A JP 2023011341 A JP2023011341 A JP 2023011341A JP 2021115146 A JP2021115146 A JP 2021115146A JP 2021115146 A JP2021115146 A JP 2021115146A JP 2023011341 A JP2023011341 A JP 2023011341A
Authority
JP
Japan
Prior art keywords
processing
learning model
analysis
imaging device
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021115146A
Other languages
Japanese (ja)
Inventor
研太郎 中村
Kentaro Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021115146A priority Critical patent/JP2023011341A/en
Publication of JP2023011341A publication Critical patent/JP2023011341A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To switch a learning model without interrupting an analysis process.SOLUTION: An information processing device having a mounting mechanism capable of attaching and detaching a device capable of executing information processing has switching means for switching a learning model to be used by the device for executing arithmetic processing and processing means for alternatively executing arithmetic processing to be executed by the device while the device's learning model is being switched by the switching means.SELECTED DRAWING: Figure 9

Description

本発明は、解析処理を効率的に実行するための技術に関するものである。 The present invention relates to techniques for efficiently executing analysis processing.

近年、様々なシーンにおいて、監視カメラにより撮像された画像を用いて、物体の検出や追尾、属性の推定等を行う画像解析、および画像解析の結果に基づく物体数の推定等の画像処理が行われている。これまでは監視カメラの映像をPCやサーバ等の高性能な演算装置に転送して画像解析が行われてきたが、モバイル用演算装置の処理能力の向上に伴い、画像解析をカメラ側で直接行う形態も利用されてきている。 In recent years, in various scenes, images captured by surveillance cameras have been used for image analysis such as detection and tracking of objects, estimation of attributes, and image processing such as estimation of the number of objects based on the results of image analysis. It is Until now, images from surveillance cameras have been transferred to high-performance computing devices such as PCs and servers for image analysis. The form of doing is also being used.

実装形態として、カメラ本体に演算装置を配置する他、USB接続の着脱可能デバイス等に演算装置を配置する形態も提案されている。しかしながら、画像解析技術の急速な進歩によって高精度な解析が可能となった一方で、画像解析を達成する機械学習モデルのデータサイズが増大している。このような機械学習モデルを使って映像解析処理をエッジデバイス上で実行すると、処理負荷や処理時間が増大してしまうという問題がある。 As an implementation form, in addition to arranging the arithmetic unit in the camera body, a form in which the arithmetic unit is arranged in a detachable device or the like connected by USB has also been proposed. However, while rapid progress in image analysis technology has enabled highly accurate analysis, the data size of machine learning models that achieve image analysis is increasing. When video analysis processing is executed on an edge device using such a machine learning model, there is a problem that the processing load and processing time increase.

特許文献1では、個々の対象物に特化した学習モデルを使用することにより、処理量を低減しつつ個別の対象物の検出精度を向上させる技術が開示されている。 Patent Literature 1 discloses a technique for improving detection accuracy of individual objects while reducing the amount of processing by using a learning model specialized for each individual object.

特開2020-170319号公報JP 2020-170319 A

しかしながら、特許文献1に記載された技術では、エッジデバイス上の学習モデル切り替えに時間を要し、学習モデルを切り替えている間の解析処理が中断するという課題がある。 However, the technique described in Patent Literature 1 has a problem that it takes time to switch the learning model on the edge device, and the analysis process is interrupted while switching the learning model.

本発明は、このような問題に鑑みてなされたものであり、解析処理を中断することなく学習モデルの切り替える技術を提供することを目的としている。 The present invention has been made in view of such problems, and an object of the present invention is to provide a technique for switching learning models without interrupting analysis processing.

上述の問題点を解決するため、本発明に係る情報処理装置は以下の構成を備える。すなわち、演算処理を実行可能なデバイスを着脱可能な装着機構を有する情報処理装置は、
前記デバイスが前記演算処理の実行に使用する学習モデルを切り替える切替手段と、
前記切替手段により前記デバイスの学習モデルの切り替えを実行している間に、前記デバイスが実行する演算処理を代替実行する処理手段と、
を有する。
In order to solve the above problems, an information processing apparatus according to the present invention has the following configuration. That is, an information processing apparatus having a mounting mechanism to which a device capable of executing arithmetic processing can be detached,
switching means for switching the learning model used by the device to execute the arithmetic processing;
a processing means for alternatively executing arithmetic processing executed by the device while the learning model of the device is being switched by the switching means;
have

本発明によれば、解析処理を中断することなく学習モデルの切り替える技術を提供することができる。 According to the present invention, it is possible to provide a technique for switching learning models without interrupting analysis processing.

画像解析システムの全体構成を示す図である。1 is a diagram showing the overall configuration of an image analysis system; FIG. 撮像装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of an imaging device. 撮像装置の機能構成を示す図である。It is a figure which shows the functional structure of an imaging device. 着脱可能デバイスのハードウェア構成を示す図である。3 is a diagram showing the hardware configuration of a detachable device; FIG. 着脱可能デバイスの機能構成を示す図である。It is a figure which shows the functional structure of a detachable device. 入出力装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of an input-output device. 入出力装置の機能構成を示す図である。It is a figure which shows the functional structure of an input-output device. システムで実行される処理のフローチャートである。4 is a flowchart of processing performed by the system; 実行可能な処理を把握する処理のフローチャートである。FIG. 10 is a flowchart of processing for grasping executable processing; FIG. 2つの処理リストと学習モデルリストの例を示す図である。It is a figure which shows the example of two process lists and a learning model list. 実行する解析処理を決定する処理のフローチャートである。4 is a flowchart of processing for determining analysis processing to be executed; 解析処理の実行処理のフローチャートである(第1実施形態)。4 is a flowchart of analysis processing execution processing (first embodiment). 後処理の実行処理のフローチャートである。10 is a flowchart of post-processing execution processing; 環境変化の監視処理のフローチャートである。7 is a flowchart of environmental change monitoring processing; 学習モデルの選択処理のフローチャートである。10 is a flowchart of learning model selection processing. 学習モデルの切替処理のフローチャートである。FIG. 10 is a flowchart of learning model switching processing; FIG. 解析処理の実行処理のフローチャートである(第2実施形態)。9 is a flowchart of analysis processing execution processing (second embodiment). 解析処理の実行処理のフローチャートである(第3実施形態)。FIG. 11 is a flowchart of execution processing of analysis processing (third embodiment); FIG.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

(第1実施形態)
本発明に係る情報処理装置の第1実施形態として、画像解析システムを例に挙げて以下に説明する。
(First embodiment)
An image analysis system will be described below as an example of an information processing apparatus according to a first embodiment of the present invention.

<システム全体構成>
図1は、画像解析システムの全体構成を示す図である。以下では、一例として、このシステムが特定人物追跡システムである場合について説明する。ただし、これに限られず、画像を解析して所定の情報出力を行う任意のシステムに、以下の議論を適用することができる。本システムは、撮像装置110a~110dと、ネットワーク120と、入出力装置130とを含んで構成される。なお、撮像装置110a~110dは、それぞれ、例えば撮像した画像を記録可能なデバイスを着脱可能なスロットを有し、そのスロットに着脱可能デバイス100a~100dが挿入されることにより、着脱可能デバイス100a~100dと接続される。なお、以下では、着脱可能デバイス100a~100dを「着脱可能デバイス100」と表記し、撮像装置110a~110dを「撮像装置110」と表記する。
<Overall system configuration>
FIG. 1 is a diagram showing the overall configuration of an image analysis system. In the following, as an example, a case where this system is a specific person tracking system will be described. However, the following discussion is not limited to this, and can be applied to any system that analyzes an image and outputs predetermined information. The system includes imaging devices 110 a to 110 d, a network 120 and an input/output device 130 . Note that the imaging devices 110a to 110d each have a slot into which a device capable of recording captured images can be attached and detached. 100d. Note that the detachable devices 100a to 100d are hereinafter referred to as "detachable devices 100", and the imaging devices 110a to 110d are referred to as "imaging devices 110".

着脱可能デバイス100は、撮像装置110に対して着脱可能な演算デバイスである。着脱可能デバイス100は、一例として、SDカードに所定の処理回路を搭載したデバイスである。着脱可能デバイス100は、例えば、SDカードの態様によって、撮像装置110にその全体が挿入可能に構成され、これにより、撮像装置110から突出する部分がない状態で撮像装置110と接続可能に構成することができる。これにより、着脱可能デバイス100が配線等の障害物と干渉することを防ぐことができ、デバイスの利用時の利便性を高めることができる。また、多くの既存のネットワークカメラなどの撮像装置110には、SDカードスロットが用意されているため、既存の撮像装置110に対して、着脱可能デバイス100により拡張機能を提供することができる。なお、着脱可能デバイス100は、SDカードの態様以外に、少なくともその撮像装置110で撮影された画像を記憶可能な記憶装置が装着される際に使用される任意のインタフェースで、撮像装置110に装着されるように構成されてもよい。例えば、着脱可能デバイス100は、USB(ユニバーサリシリアルバス)インタフェースを有し、撮像装置110のUSBソケットに装着されるように構成されてもよい。また、所定の処理回路は、例えば、所定の処理を実行するようにプログラムされたFPGA(フィールドプログラマブルゲートアレイ)によって実装されるが、それ以外の形式で実装されてもよい。 The detachable device 100 is a computing device detachable with respect to the imaging device 110 . The detachable device 100 is, for example, a device in which a predetermined processing circuit is mounted on an SD card. The detachable device 100 is, for example, in the form of an SD card, configured to be entirely insertable into the imaging device 110, thereby being configured to be connectable to the imaging device 110 without any part protruding from the imaging device 110. be able to. As a result, the detachable device 100 can be prevented from interfering with obstacles such as wiring, and the convenience of using the device can be improved. In addition, since many existing imaging devices 110 such as network cameras are provided with an SD card slot, the detachable device 100 can provide extended functions to the existing imaging device 110 . Note that the detachable device 100 can be attached to the imaging device 110 with any interface used when a storage device capable of storing at least images captured by the imaging device 110 is attached, other than the form of an SD card. may be configured to be For example, the removable device 100 may have a USB (Universal Serial Bus) interface and be configured to be attached to a USB socket of the imaging device 110 . Also, the predetermined processing circuit is implemented by, for example, an FPGA (Field Programmable Gate Array) programmed to execute predetermined processing, but may be implemented in other forms.

撮像装置110は、ネットワークカメラ等の撮像装置である。本実施形態では、撮像装置110は、映像を処理することのできる演算装置を内蔵するものとするが、これに限られない。例えば、撮像装置110に接続されたPC(パーソナルコンピュータ)等の外部コンピュータが存在してもよく、これらの組み合わせを、撮像装置110として扱ってもよい。また、本実施形態では、全ての撮像装置110に、着脱可能デバイス100が装着されているものとする。なお、図1では、4つの撮像装置110と、それぞれに装着された着脱可能デバイスとが示されているが、これらの装置の組み合わせの数は3つ以下であってもよいし、5つ以上であってもよい。撮像装置110に、画像解析処理機能を有する着脱可能デバイス100が装着されることにより、撮像装置110が画像解析処理機能を有しなくても、撮像装置110側で映像処理を実行することが可能となる。また、本実施形態のように撮像装置110に映像処理用の演算装置が配置された形態では、演算装置が配置された着脱可能デバイス100が撮像装置110に装着されることにより、撮像装置110側で実行可能な画像処理を多様化・高度化することができる。 The imaging device 110 is an imaging device such as a network camera. In this embodiment, the imaging device 110 incorporates an arithmetic device capable of processing video, but is not limited to this. For example, there may be an external computer such as a PC (personal computer) connected to the imaging device 110 , and a combination of these may be treated as the imaging device 110 . Also, in this embodiment, it is assumed that the detachable device 100 is attached to all the imaging devices 110 . Although FIG. 1 shows four imaging devices 110 and detachable devices attached thereto, the number of combinations of these devices may be three or less, or five or more. may be By attaching the detachable device 100 having an image analysis processing function to the imaging device 110, even if the imaging device 110 does not have an image analysis processing function, the imaging device 110 can execute image processing. becomes. In addition, in a form in which an arithmetic device for video processing is arranged in the imaging device 110 as in the present embodiment, the detachable device 100 in which the arithmetic device is arranged is attached to the imaging device 110, thereby It is possible to diversify and enhance the image processing that can be executed with

入出力装置130は、ユーザからの入力の受け付けや、ユーザへの情報の出力(例えば情報の表示)を行う装置である。本実施形態では、例えば入出力装置130は、PC等のコンピュータであり、そのコンピュータにインストールされたブラウザやネイティブアプリケーションによって、情報の入出力が行われる。 The input/output device 130 is a device that receives input from a user and outputs information (eg, displays information) to the user. In this embodiment, for example, the input/output device 130 is a computer such as a PC, and information is input/output using a browser or native application installed on the computer.

撮像装置110と入出力装置130は、ネットワーク120を介して通信可能に接続される。ネットワーク120は、例えばEthernet(登録商標)等の通信規格を満たす複数のルータ、スイッチ、ケーブル等を含んで構成される。本実施形態では、ネットワーク120は、撮像装置110と入出力装置130との間の通信を可能とする任意のネットワークであってよく、任意の規模や構成、準拠する通信規格によって構築されうる。例えば、ネットワーク120は、インターネットや有線LAN(Local Area Network)、無線LAN、WAN(Wide Area Network)等でありうる。また、ネットワーク120は、例えば、ONVIF(Open Network Video Interface Forum)規格に準拠した通信プロトコルでの通信が可能なように構成されうる。ただし、これに限られず、ネットワーク120は、例えば、独自の通信プロトコル等の他の通信プロトコルでの通信が可能なように構成されてもよい。 The imaging device 110 and the input/output device 130 are communicably connected via a network 120 . The network 120 includes a plurality of routers, switches, cables, etc. that meet communication standards such as Ethernet (registered trademark). In this embodiment, the network 120 may be any network that enables communication between the imaging device 110 and the input/output device 130, and may be constructed according to any scale, configuration, or compliant communication standard. For example, the network 120 may be the Internet, a wired LAN (Local Area Network), a wireless LAN, a WAN (Wide Area Network), or the like. Also, the network 120 can be configured, for example, to enable communication using a communication protocol conforming to the ONVIF (Open Network Video Interface Forum) standard. However, the present invention is not limited to this, and the network 120 may be configured to enable communication using other communication protocols such as a proprietary communication protocol.

<撮像装置の構成>
図2は、撮像装置110のハードウェア構成を示す図である。撮像装置110は、そのハードウェア構成として、例えば、撮像部201、画像処理部202、演算処理部203、配信部204、SD I/F部205を含む。なお、I/Fは、インタフェースの略語である。
<Structure of Imaging Device>
FIG. 2 is a diagram showing the hardware configuration of the imaging device 110. As shown in FIG. The imaging device 110 includes, for example, an imaging unit 201, an image processing unit 202, an arithmetic processing unit 203, a distribution unit 204, and an SD I/F unit 205 as its hardware configuration. Note that I/F is an abbreviation for interface.

撮像部201は、光を結像するためのレンズ部と、結像された光に応じたアナログ信号変換する撮像素子とを含んで構成される。レンズ部は、画角を調整するズーム機能や、光量の調整を行う絞り機能などを有する。撮像素子は、光をアナログ信号に変換する際の感度調整を行うゲイン機能を有する。これらの機能は、画像処理部202から通知された設定値に基づいて調整される。撮像部201によって取得されたアナログ信号は、アナログ-デジタル変換回路によってデジタル信号に変換され、画像信号として画像処理部202へ転送される。 The imaging unit 201 includes a lens unit for forming an image of light, and an imaging element that converts an analog signal according to the formed light. The lens unit has a zoom function for adjusting the angle of view, a diaphragm function for adjusting the amount of light, and the like. The imaging device has a gain function that adjusts sensitivity when converting light into an analog signal. These functions are adjusted based on setting values notified from the image processing unit 202 . An analog signal acquired by the imaging unit 201 is converted into a digital signal by an analog-digital conversion circuit and transferred to the image processing unit 202 as an image signal.

画像処理部202は、画像処理エンジンと、その周辺デバイス等を含んで構成される。周辺デバイスは、例えば、RAM(Random Access Memory)や、各I/Fのドライバ等を含む。画像処理部202では、撮像部201から取得した画像信号に対して、例えば、現像処理、フィルタ処理、センサ補正、ノイズ除去等の、画像処理を施して画像データを生成する。また、画像処理部202は、レンズ部や撮像素子へ設定値を送信し、適切露出画像を取得できるように、露出調整を実行しうる。画像処理部202において生成された画像データは、演算処理部203へ転送される。 The image processing unit 202 includes an image processing engine, its peripheral devices, and the like. Peripheral devices include, for example, RAM (Random Access Memory) and drivers for each I/F. The image processing unit 202 performs image processing such as development processing, filter processing, sensor correction, and noise removal on the image signal acquired from the imaging unit 201 to generate image data. In addition, the image processing unit 202 can transmit setting values to the lens unit and the image sensor, and perform exposure adjustment so that an appropriately exposed image can be acquired. Image data generated by the image processing unit 202 is transferred to the arithmetic processing unit 203 .

演算処理部203は、CPUやMPU等の1つ以上のプロセッサ、RAMやROM等のメモリ、各I/Fのドライバなどから構成される。なお、CPUはCentral Processing Unitの、MPUはMicro Processing Unitの、ROMはRead Only Memoryの、頭字語である。演算処理部203では、一例において、上述のシステムにおいて実行されるべき処理の各部分を撮像装置110と着脱可能デバイス100とのいずれが実行するかの分担を決定し、その決定した分担に対応する処理を実行しうる。画像処理部202から受け取った画像は、配信部204、又は、SD I/F部205へ転送される。また、処理結果のデータも配信部204へ転送される。 The arithmetic processing unit 203 includes one or more processors such as CPU and MPU, memories such as RAM and ROM, and drivers for each I/F. Note that CPU is an acronym for Central Processing Unit, MPU is Micro Processing Unit, and ROM is Read Only Memory. In one example, the arithmetic processing unit 203 determines which of the imaging device 110 and the detachable device 100 will perform each part of the processing to be executed in the above-described system. processing can be performed. Images received from the image processing unit 202 are transferred to the distribution unit 204 or the SD I/F unit 205 . Data of the processing result is also transferred to the distribution unit 204 .

配信部204は、ネットワーク配信エンジンと、例えば、RAMやETH_PHYモジュールなどの周辺デバイス等を含んで構成される。ETH_PHYモジュールは、Ethernetの物理(PHY)レイヤの処理を実行するモジュールである。配信部204は、演算処理部203から取得した画像データや処理結果のデータを、ネットワーク120へ配信可能な形式に変換して、変換後のデータをネットワーク120へ出力する。SD I/F部205は、着脱可能デバイス100と接続するためのインタフェース部分で、例えば、電源と、着脱可能デバイス100を着脱するための、着脱ソケット等の装着機構を含んで構成される。ここでは、SD I/F部205が、SDアソシエーションにより策定されたSD規格に従って構成されるものとする。演算処理部203から取得された画像の着脱可能デバイス100への転送や、着脱可能デバイス100からのデータの取得等の、着脱可能デバイス100と撮像装置110との間での通信は、SD I/F部205を通じて行われる。 The distribution unit 204 includes a network distribution engine and peripheral devices such as a RAM and an ETH_PHY module. The ETH_PHY module is a module that executes Ethernet physical (PHY) layer processing. The distribution unit 204 converts the image data and the processing result data acquired from the arithmetic processing unit 203 into a format that can be distributed to the network 120 and outputs the converted data to the network 120 . The SD I/F section 205 is an interface section for connecting with the removable device 100 , and includes, for example, a power source and a mounting mechanism such as a removable socket for mounting and removing the removable device 100 . Here, it is assumed that the SD I/F unit 205 is configured according to the SD standard established by the SD Association. Communication between the detachable device 100 and the imaging device 110, such as transferring an image acquired from the arithmetic processing unit 203 to the detachable device 100, acquiring data from the detachable device 100, etc. It is performed through the F section 205 .

図3は、撮像装置110の機能構成を示す図である。撮像装置110は、その機能として、例えば、撮像制御部301、信号処理部302、記憶部303、制御部304、解析部305、デバイス通信部306、及び、ネットワーク通信部307を含む。 FIG. 3 is a diagram showing the functional configuration of the imaging device 110. As shown in FIG. The imaging device 110 includes, for example, an imaging control unit 301, a signal processing unit 302, a storage unit 303, a control unit 304, an analysis unit 305, a device communication unit 306, and a network communication unit 307 as functions thereof.

撮像制御部301は、撮像部201を介して周囲の環境を撮影するようにする制御を実行する。信号処理部302は、撮像制御部301によって撮影された画像に対して所定の処理を施して、撮影画像のデータを生成する。以下では、この撮影画像のデータを単に「撮影画像」と呼ぶ。信号処理部302は、例えば、撮像制御部301によって撮影された画像を符号化する。信号処理部302は、静止画像に対して、例えば、JPEG(Joint Photographic Experts Group)等の符号化方式を用いて符号化を行う。また、信号処理部302は、動画像に対して、H.264/MPEG-4 AVC(以下では「H.264」と呼ぶ。)、HEVC(High Efficiency Video Coding)等の符号化方式を用いて符号化を行う。また、信号処理部302は、予め設定された複数の符号化方式の中から、例えば撮像装置110の不図示の操作部を介して、ユーザにより選択された符号化方式を用いて、画像を符号化してもよい。 The image capturing control unit 301 executes control for capturing images of the surrounding environment via the image capturing unit 201 . The signal processing unit 302 performs predetermined processing on the image captured by the imaging control unit 301 to generate captured image data. Below, the data of this photographed image is simply referred to as a “photographed image”. The signal processing unit 302 encodes an image captured by the imaging control unit 301, for example. The signal processing unit 302 encodes a still image using an encoding method such as JPEG (Joint Photographic Experts Group). Also, the signal processing unit 302 performs H.264 for moving images. 264/MPEG-4 AVC (hereinafter referred to as “H.264”), HEVC (High Efficiency Video Coding), or other encoding method. In addition, the signal processing unit 302 encodes an image using an encoding method selected by the user, for example, via an operation unit (not shown) of the imaging device 110 from among a plurality of preset encoding methods. may be changed.

記憶部303は、解析部305において実行可能な解析処理のリスト(以下では「第1処理リスト」と呼ぶ。)と、解析処理の結果に対する後処理のリストとを記憶する。また、記憶部303は、後述する解析処理の結果を記憶する。なお、本実施形態では、実行される処理が解析処理であるが、任意の処理が実行されてもよく、記憶部303は、その実行される処理に関連する処理について、第1処理リストと後処理のリストとを記憶するようにしうる。制御部304は、信号処理部302、記憶部303、解析部305、デバイス通信部306、ネットワーク通信部307を、それぞれが所定の処理を実行するように、制御する。 The storage unit 303 stores a list of analysis processes that can be executed by the analysis unit 305 (hereinafter referred to as a "first process list") and a list of post-processing for the results of the analysis processes. The storage unit 303 also stores the result of analysis processing, which will be described later. Note that in the present embodiment, the process to be executed is the analysis process, but any process may be executed. A list of processes may be stored. The control unit 304 controls the signal processing unit 302, the storage unit 303, the analysis unit 305, the device communication unit 306, and the network communication unit 307 so that they each perform predetermined processing.

解析部305は、撮影画像に対して、後述する解析前処理、解析処理、解析後処理の少なくともいずれかを選択的に実行する。解析前処理は、後述の解析処理を実行する前に、撮影画像に対して実行する処理である。本実施形態の解析前処理では、一例として、撮影画像を分割して分割画像を作成する処理が実行されるものとする。解析処理は、入力された画像を解析して得られる情報を出力する処理である。本実施形態の解析処理では、一例として、解析前処理によって得られた分割画像を入力として、人体検出処理、顔検出処理、車両検出処理の少なくともいずれかを実行し、解析処理結果を出力する処理が実行されるものとする。解析処理は、画像に含まれるオブジェクトを検出できるように学習が行われた機械学習モデルを用いて、分割画像中のオブジェクトの位置を出力するように構成された処理でありうる。例えば、「J.Redmon, A.Farhadi, "YOLO9000: Better Faster Stronger", Computer Vision and Pattern Recognition (CVPR) 2016」に記載の技術を用いることが出来る。解析後処理は、解析処理が実行された後に実行される処理である。本実施形態の解析後処理では、一例として、各分割画像に対する解析処理結果に基づいて、各分割画像において検出されたオブジェクトの数を合計した値を処理結果として出力する処理が実行されるものとする。なお、解析処理は、パターンマッチングを行って画像中のオブジェクトを検出し、その位置を出力する処理であってもよい。 The analysis unit 305 selectively executes at least one of pre-analysis processing, analysis processing, and post-analysis processing, which will be described later, on the captured image. Pre-analysis processing is processing performed on a captured image before executing analysis processing, which will be described later. In the pre-analysis processing of the present embodiment, as an example, a process of dividing a captured image to create divided images is executed. Analysis processing is processing for outputting information obtained by analyzing an input image. In the analysis processing of the present embodiment, as an example, a divided image obtained by the pre-analysis processing is input, and at least one of human body detection processing, face detection processing, and vehicle detection processing is executed, and the analysis processing result is output. shall be performed. The analysis process can be a process configured to output the position of the object in the segmented image using a machine learning model trained to detect the object in the image. For example, the technique described in "J. Redmon, A. Farhadi, "YOLO9000: Better Faster Stronger", Computer Vision and Pattern Recognition (CVPR) 2016" can be used. Post-analysis processing is processing that is executed after the analysis processing is executed. In the post-analysis processing of the present embodiment, as an example, processing for outputting a value obtained by summing the number of objects detected in each divided image as a processing result based on the analysis processing result for each divided image is executed. do. Note that the analysis process may be a process of detecting an object in an image by pattern matching and outputting its position.

デバイス通信部306は、着脱可能デバイス100との通信を行う。デバイス通信部306は、入力されたデータを着脱可能デバイス100が処理可能な形式に変換し、その変換によって得られたデータを着脱可能デバイス100に送信する。また、デバイス通信部306は、着脱可能デバイス100からデータを受信し、受信したデータを撮像装置110が処理可能な形式に変換する。本実施形態では、デバイス通信部306は、変換処理として、小数を浮動小数点形式と固定小数点形式との間で変換する処理を実行するものとするが、これに限られず、他の処理がデバイス通信部306によって実行されてもよい。また、本実施形態では、デバイス通信部306は、着脱可能デバイス100に対してSD規格の範囲内で事前に定められたコマンドシーケンスを送信し、着脱可能デバイス100からの応答を受信することで、着脱可能デバイス100との通信を行うものとする。ネットワーク通信部307は、ネットワーク120を介して、入出力装置130との通信を行う。 A device communication unit 306 communicates with the detachable device 100 . The device communication unit 306 converts the input data into a format that can be processed by the removable device 100 and transmits the data obtained by the conversion to the removable device 100 . The device communication unit 306 also receives data from the detachable device 100 and converts the received data into a format that can be processed by the imaging device 110 . In the present embodiment, the device communication unit 306 executes processing for converting a decimal number between a floating point format and a fixed point format as conversion processing. may be performed by unit 306. Further, in this embodiment, the device communication unit 306 transmits a predetermined command sequence within the scope of the SD standard to the removable device 100, and receives a response from the removable device 100. It is assumed that communication with the detachable device 100 is performed. A network communication unit 307 communicates with the input/output device 130 via the network 120 .

<着脱可能デバイスの構成>
図4は、着脱可能デバイス100のハードウェア構成を示す図である。上述したように、着脱可能デバイス100は、撮像装置110に着脱可能な外部演算デバイス(処理デバイス)である。着脱可能デバイス100は、一例として、I/F部401、FPGA402、SDコントローラ403、及び、記憶部404を含んで構成される。着脱可能デバイス100は、撮像装置110が有するSD I/F部205の着脱ソケットに挿抜できる形状で、すなわちSD規格に則った形状で成形されるものとする。
<Configuration of detachable device>
FIG. 4 is a diagram showing the hardware configuration of the detachable device 100. As shown in FIG. As described above, the detachable device 100 is an external computing device (processing device) detachable from the imaging device 110 . The removable device 100 includes an I/F section 401, an FPGA 402, an SD controller 403, and a storage section 404, for example. The detachable device 100 is molded in a shape that can be inserted into and pulled out of a removable socket of the SD I/F section 205 of the imaging device 110, that is, in a shape conforming to the SD standard.

I/F部401は、撮像装置110等の装置と着脱可能デバイス100とを接続するためのインタフェース部分である。I/F部401は、例えば、撮像装置110から電源の供給を受け、着脱可能デバイス100内で使用する電源を生成し分配する、電気的な接点端子等を含んで構成される。I/F部401は、撮像装置110のSD I/F部205と同様に、SD規格内で定義(準拠)されている項目に関しては、それに従うものとする。撮像装置110からの画像や設定データの受け取り、FPGA402から撮像装置110へのデータの送信は、I/F部401を介して実行される。 The I/F section 401 is an interface section for connecting a device such as the imaging device 110 and the detachable device 100 . The I/F unit 401 includes, for example, an electrical contact terminal or the like that receives power supply from the imaging device 110 and generates and distributes power to be used in the detachable device 100 . As with the SD I/F unit 205 of the imaging device 110, the I/F unit 401 complies with items defined (compliant) within the SD standard. Receipt of images and setting data from the imaging device 110 and transmission of data from the FPGA 402 to the imaging device 110 are executed via the I/F unit 401 .

FPGA402は、入出力制御部410、処理切替部411、及び演算処理部412を含んで構成される。FPGA402は、内部の論理回路構造を繰り返し再構成可能な半導体デバイスの一種である。FPGA402が実現する処理により、着脱可能デバイス100が装着された装置に、処理機能を追加(提供)することができる。また、FPGA402の再構成機能により、後から論理回路構造を変更することができるため、例えば技術の進歩の早い分野の装置に着脱可能デバイス100を装着することにより、その装置において適時に適切な処理を実行することが可能となる。なお、本実施形態では、FPGAが用いられる例について説明するが、後述する処理を実現可能である限りにおいて、例えば、汎用のASICや専用のLSIが用いられてもよい。 The FPGA 402 includes an input/output control unit 410 , a processing switching unit 411 and an arithmetic processing unit 412 . The FPGA 402 is a type of semiconductor device whose internal logic circuit structure can be repeatedly reconfigured. Processing realized by the FPGA 402 can add (provide) processing functions to an apparatus to which the removable device 100 is attached. In addition, since the reconfiguration function of the FPGA 402 allows the logic circuit structure to be changed later, for example, by attaching the detachable device 100 to a device in a field of rapid technological progress, appropriate processing can be performed in the device in a timely manner. can be executed. In this embodiment, an example using an FPGA will be described, but a general-purpose ASIC or a dedicated LSI, for example, may be used as long as the processing described later can be realized.

FPGA402は、生成される論理回路構造の情報を含んだコンフィグレーションデータ(以下、設定データ)が専用のI/Fから書き込まれることにより、又は、その設定データがその専用のI/Fから読み出されることによって、起動される。本実施形態では、この設定データが記憶部404に保持されているものとする。FPGA402は、電源が投入されると、記憶部404から設定データを読み出し、論理回路を生成して起動する。ただし、これに限られず、例えば、着脱可能デバイス内に専用の回路を実装することにより、I/F部401を介して、撮像装置110がFPGA402に設定データを書き込んでもよい。 The FPGA 402 is configured by writing configuration data (hereinafter referred to as setting data) including information on the logic circuit structure to be generated from a dedicated I/F, or by reading the setting data from the dedicated I/F. is started by In this embodiment, it is assumed that this setting data is held in the storage unit 404 . When power is turned on, the FPGA 402 reads setting data from the storage unit 404 and generates and activates a logic circuit. However, the configuration is not limited to this, and for example, the imaging apparatus 110 may write setting data to the FPGA 402 via the I/F unit 401 by mounting a dedicated circuit in the detachable device.

入出力制御部410は、撮像装置110との間で画像を送受信するための回路、撮像装置110から受信したコマンドを解析する回路、解析した結果に基づいて制御を行う回路、等を含んで構成される。ここでのコマンドは、SD規格に定義されているものであり、入出力制御部410は、それらのうちのいくつかを検出することができる。機能の詳細に関しては後述する。入出力制御部410は、記憶処理の場合はSDコントローラ403へ画像を送信し、画像解析処理の場合は演算処理部412へ画像を送信するように制御を行う。また、入出力制御部410は、処理の切り替えの設定データを受け取った場合は、処理切替部411へ設定データを送信する。 The input/output control unit 410 includes a circuit for transmitting and receiving images to and from the imaging device 110, a circuit for analyzing commands received from the imaging device 110, a circuit for performing control based on the analysis result, and the like. be done. The commands here are defined in the SD standard, and the input/output control unit 410 can detect some of them. Details of the function will be described later. The input/output control unit 410 performs control so that an image is transmitted to the SD controller 403 in the case of storage processing, and an image is transmitted to the arithmetic processing unit 412 in the case of image analysis processing. When the input/output control unit 410 receives setting data for switching processing, the input/output control unit 410 transmits the setting data to the processing switching unit 411 .

処理切替部411は、撮像装置110から受け取った設定データに基づいて、記憶部404から画像解析処理機能の情報を取得し、演算処理部412に書き込むための回路を含んで構成される。画像解析処理機能の情報は、例えば、演算処理部412内で処理される演算の順序や種類、演算の係数などを示す設定パラメータである。 The processing switching unit 411 includes a circuit for acquiring information on the image analysis processing function from the storage unit 404 based on the setting data received from the imaging device 110 and writing the information to the arithmetic processing unit 412 . The information of the image analysis processing function is, for example, setting parameters indicating the order and types of calculations processed in the calculation processing unit 412, coefficients of calculations, and the like.

演算処理部412は、画像解析処理機能を実行するために必要な複数の演算回路を含んで構成される。演算処理部412は、処理切替部411から受け取った画像解析処理機能の情報に基づいて、各演算処理を実行して、その処理結果を撮像装置110へ送信し、及び/又は、その処理結果を記憶部404に記録する。 The arithmetic processing unit 412 includes a plurality of arithmetic circuits necessary for executing the image analysis processing function. The arithmetic processing unit 412 executes each arithmetic processing based on the information of the image analysis processing function received from the processing switching unit 411, transmits the processing result to the imaging device 110, and/or transmits the processing result. Recorded in the storage unit 404 .

このように、FPGA402は、事前に保持された複数の処理機能に対応する設定データに含まれる、実行対象の処理機能の設定データを抽出して、その抽出した設定データに基づいて演算処理部412によって実行される処理内容を書き換える。これにより、着脱可能デバイス100が、その複数の処理機能のうちの少なくともいずれかを選択的に実行することができる。また、新規に追加する処理の設定データを随時追加することにより、撮像装置110側で最新の処理を実行させることができる。なお、以下では、複数の処理機能のそれぞれに対応する複数の設定データを有していることを、複数の処理機能を有すると表現する。すなわち、着脱可能デバイス100のFPGA402が1つの処理機能を実行するように構成されている状態であっても、他の処理機能のための設定データにより演算処理部412の処理内容を変更することができる場合「複数の処理機能を有する」と表現する。 In this way, the FPGA 402 extracts the setting data of the processing function to be executed, which is included in the setting data corresponding to the plurality of processing functions held in advance, and the arithmetic processing unit 412 calculates the setting data based on the extracted setting data. Rewrite the processing contents executed by . This allows the removable device 100 to selectively perform at least one of its multiple processing functions. Further, by adding setting data for newly added processing at any time, the latest processing can be executed on the imaging device 110 side. In addition, hereinafter, having a plurality of setting data corresponding to each of a plurality of processing functions is expressed as having a plurality of processing functions. That is, even when the FPGA 402 of the removable device 100 is configured to execute one processing function, it is possible to change the processing content of the arithmetic processing unit 412 by setting data for another processing function. When possible, it is expressed as “having multiple processing functions”.

SDコントローラ403は、SD規格に定義されているような公知のコントロールIC(集積回路)であり、SDプロトコルのスレーブ動作の制御と、記憶部404に対するデータの読み書きの制御とを実行する。記憶部404は、例えばNAND型フラッシュメモリによって構成され、例えば、撮像装置110から書き込まれた記憶データ、演算処理部412に書き込まれる画像解析処理機能の情報、FPGA402の設定データ等の各種情報を記憶する。 The SD controller 403 is a well-known control IC (integrated circuit) as defined in the SD standard, and executes control of slave operation of the SD protocol and control of data read/write with respect to the storage unit 404 . The storage unit 404 is configured by, for example, a NAND flash memory, and stores various types of information such as storage data written from the imaging device 110, information on the image analysis processing function written to the arithmetic processing unit 412, and setting data for the FPGA 402. do.

図5は、着脱可能デバイス100の機能構成を示す図である。着脱可能デバイス100は、その機能構成として、例えば、解析部501、通信部502、及び記憶部503を含む。 FIG. 5 is a diagram showing the functional configuration of the detachable device 100. As shown in FIG. The detachable device 100 includes, for example, an analysis unit 501, a communication unit 502, and a storage unit 503 as its functional configuration.

解析部501は、画像に対する解析処理を実行する。解析部501は、例えば、解析処理設定要求を入力された場合に、入力された解析処理を実行可能な状態にするための設定を実行する。また、解析部501は、画像が入力された場合、その入力された画像に対して、実行可能な状態に設定された解析処理を実行する。 The analysis unit 501 executes analysis processing on the image. For example, when an analysis processing setting request is input, the analysis unit 501 executes settings for making the input analysis processing executable. In addition, when an image is input, the analysis unit 501 executes analysis processing set in an executable state on the input image.

本実施形態では、解析部501が実行可能な解析処理は、人体検出処理と車両検出処理であるものとするが、これらに限られない。例えば、事前に記憶された人物が画像に含まれるか否かを判定する処理(後述する顔認証処理)であってもよい。例えば、事前に記憶された人物の画像特徴量と、入力された画像から検出された人物の画像特徴量との一致度合いが算出され、一致度合いが閾値以上の場合に事前に記憶された人物であると判定される。また、プライバシー保護を目的として。入力された画像から検出された人物に対して、所定のマスク画像を重畳したり、モザイク処理を施したりする処理であってもよい。また、人物の特定の行動を機械学習によって学習した学習モデルを用いて、画像中の人物が特定の行動を行っているかを検出する処理であってもよい。さらには、画像中の領域がどのような領域なのかを判定する処理であってもよい。例えば、建物や道路、人物、空等を機械学習によって学習した学習モデルを用いて、画像中の領域がどのような領域なのかを判定する処理であってもよい。以降では、学習モデルを用いた処理を、単に学習モデルと呼ぶ場合がある。 In the present embodiment, analysis processing that can be executed by the analysis unit 501 is human body detection processing and vehicle detection processing, but is not limited to these. For example, it may be a process of determining whether or not a person stored in advance is included in the image (face authentication process described later). For example, the degree of matching between the image feature amount of a person stored in advance and the image feature amount of a person detected from an input image is calculated. It is determined that there is Also, for the purpose of privacy protection. A process of superimposing a predetermined mask image or performing mosaic processing on a person detected from an input image may be performed. Alternatively, it may be a process of detecting whether or not a person in an image is performing a specific action using a learning model obtained by learning a specific action of a person by machine learning. Furthermore, it may be a process of determining what kind of area the area in the image is. For example, it may be a process of determining what kind of area an area in an image is using a learning model obtained by learning buildings, roads, people, the sky, etc. by machine learning. Henceforth, the process using a learning model may be simply called a learning model.

以上のように、解析部501が実行可能な解析処理は、機械学習を用いた画像解析処理にも、機械学習を用いない画像解析処理にも応用可能である。また、上記の各解析処理は、着脱可能デバイス100が単独で行うのではなく、撮像装置110と協働して実行してもよい。通信部502は、I/F部401を介して、撮像装置110との通信を行う。記憶部503は、解析処理の設定内容や解析処理に要する時間等の情報を記憶する。 As described above, the analysis processing that can be executed by the analysis unit 501 can be applied to image analysis processing using machine learning and image analysis processing that does not use machine learning. Moreover, each of the analysis processes described above may be performed in cooperation with the imaging device 110 instead of being performed by the detachable device 100 alone. A communication unit 502 communicates with the imaging device 110 via the I/F unit 401 . The storage unit 503 stores information such as the setting contents of the analysis process and the time required for the analysis process.

解析処理に要する時間は、例えば、所定の処理が実行される際に要する実時間であり、その時間だけ待つことによりその解析処理が終了することが保証される時間でありうる。また、解析処理に要する時間は、その解析処理における処理のクロックサイクル数であってもよい。なお、この時間の情報は、解析処理ごとに個別に記憶されうる。また、解析処理に要する時間は、例えば、初期的に十分に大きい値に設定され、その後、実際に処理が実行された際に要した時間を統計値として収集し、その収集された値に基づいて、更新されてもよい。 The time required for the analysis process is, for example, the actual time required for executing the predetermined process, and can be the time that guarantees the end of the analysis process by waiting for that time. Also, the time required for analysis processing may be the number of clock cycles for processing in the analysis processing. Note that this time information can be stored individually for each analysis process. In addition, for example, the time required for the analysis process is initially set to a sufficiently large value, and then the time required when the process is actually executed is collected as a statistical value, and based on the collected value may be updated.

これらの情報は、学習モデルに固有に付与されており、その学習モデルを実行するために必要な情報である(以下では、「学習モデル情報」と呼ぶ)。学習モデル情報として、モデルが何を検出するかを示す検出対象物、学習モデルのデータサイズ、実行する処理単位を示すクロックサイクル数、等が記憶されうる。 These pieces of information are uniquely assigned to the learning model and are information necessary for executing the learning model (hereinafter referred to as "learning model information"). As learning model information, a detection target indicating what the model detects, a data size of the learning model, the number of clock cycles indicating a unit of processing to be executed, and the like can be stored.

<入出力装置の構成>
図6は、入出力装置130のハードウェア構成を示す図である。入出力装置130は、一般的なPC等のコンピュータとして構成され、例えば、図6に示すように、CPU等のプロセッサ601、RAM602やROM603等のメモリ、HDD604等の記憶装置、及び、通信I/F605を含んで構成される。入出力装置130は、プロセッサ601が、メモリや記憶装置に格納されたプログラムを実行することにより、各種機能を実行することができる。
<Configuration of input/output device>
FIG. 6 is a diagram showing the hardware configuration of the input/output device 130. As shown in FIG. The input/output device 130 is configured as a computer such as a general PC. For example, as shown in FIG. F605 is included. The input/output device 130 can perform various functions by causing the processor 601 to execute programs stored in a memory or a storage device.

図7は、入出力装置130の機能構成を示す図である。入出力装置130は、その機能構成として、例えば、ネットワーク通信部701、制御部702、表示部703、及び操作部704を含む。ネットワーク通信部701は、例えばネットワーク120に接続し、ネットワーク120を介して撮像装置110等の外部装置との通信を実行する。なお、これは一例に過ぎず、例えば、ネットワーク通信部701は、撮像装置110と直接接続を確立して、ネットワーク120や他の装置を介さずに、撮像装置110と通信するように構成されてもよい。制御部702は、ネットワーク通信部701と表示部703と操作部704とがそれぞれの処理を実行するように、制御する。表示部703は、例えばディスプレイを介してユーザに情報を提示する。本実施形態では、ブラウザがレンダリングした結果をディスプレイに表示することによって、情報がユーザに提示される。なお、音声や振動等の画面表示以外の方法で情報が提示されてもよい。操作部704は、ユーザからの操作を受け付ける。本実施形態では、操作部704がマウスやキーボードであり、ユーザがこれらを操作して、ブラウザにユーザ操作を入力するものとする。ただし、これに限られず、操作部704は、例えば、タッチパネルやマイクなど、他のユーザの意図を検出することができる任意のデバイスであってもよい。 FIG. 7 is a diagram showing the functional configuration of the input/output device 130. As shown in FIG. The input/output device 130 includes, for example, a network communication unit 701, a control unit 702, a display unit 703, and an operation unit 704 as its functional configuration. A network communication unit 701 connects to, for example, the network 120 and executes communication with an external device such as the imaging device 110 via the network 120 . Note that this is only an example, and for example, the network communication unit 701 is configured to establish direct connection with the imaging device 110 and communicate with the imaging device 110 without going through the network 120 or other devices. good too. The control unit 702 controls the network communication unit 701, the display unit 703, and the operation unit 704 to execute their respective processes. The display unit 703 presents information to the user via, for example, a display. In this embodiment, information is presented to the user by displaying the result rendered by the browser on the display. Note that information may be presented by a method other than screen display such as sound or vibration. An operation unit 704 receives an operation from the user. In this embodiment, the operation unit 704 is a mouse and a keyboard, and the user operates these to input user operations to the browser. However, the operation unit 704 is not limited to this, and may be any device capable of detecting the intention of another user, such as a touch panel or a microphone.

<システムの動作>
続いて、システム内で実行される処理の流れの例について説明する。なお、以下の各処理のうち撮像装置110が実行する処理は、例えば、演算処理部203内のプロセッサがメモリ等に記憶されたプログラムを実行することによって実現される。ただし、これは一例に過ぎず、後述の処理の一部又は全部が、専用のハードウェアによって実現されてもよい。また、着脱可能デバイス100や入出力装置130が実行する処理についても、各装置におけるプロセッサがメモリ等に記憶されたプログラムを実行することによって実現されてもよいし、処理の一部又は全部を、専用のハードウェアによって実現してもよい。
<System operation>
Next, an example of the flow of processing executed within the system will be described. Among the following processes, the processes executed by the imaging apparatus 110 are realized, for example, by the processor in the arithmetic processing unit 203 executing a program stored in a memory or the like. However, this is only an example, and part or all of the processing described later may be implemented by dedicated hardware. Also, the processing executed by the removable device 100 and the input/output device 130 may be realized by executing a program stored in a memory or the like by the processor in each device. It may be realized by dedicated hardware.

<画像解析処理の全体動作>
図8は、システムで実行される処理のフローチャートである。S801では、着脱可能デバイス100が撮像装置110に(例えばユーザによって)装着される。
<Overall Operation of Image Analysis Processing>
FIG. 8 is a flowchart of the processing performed by the system. At S801, the removable device 100 is attached to the imaging device 110 (eg, by a user).

S802では、撮像装置110は、着脱可能デバイス100に対して初期化シーケンスを実行する。この初期化シーケンスでは、撮像装置110と着脱可能デバイス100との間で所定のコマンドが送受信されることにより、撮像装置110が、着脱可能デバイス100を使用可能な状態となる。 In S<b>802 , the imaging device 110 performs an initialization sequence on the removable device 100 . In this initialization sequence, a predetermined command is transmitted and received between the imaging device 110 and the detachable device 100 so that the imaging device 110 can use the detachable device 100 .

S803では、撮像装置110は、着脱可能デバイス100が実行可能な処理を把握し、ローカルで実行可能な(撮像装置110単体で又は撮像装置110と着脱可能デバイス100の組み合わせで実行可能な)処理を把握する。なお、着脱可能デバイス100は、任意の処理を実行可能なように構成されうるが、撮像装置110側で実行されるべき処理と無関係な処理については考慮されなくてもよい。 In S803, the imaging apparatus 110 recognizes processes executable by the detachable device 100, and performs locally executable processes (executable by the imaging apparatus 110 alone or by a combination of the imaging apparatus 110 and the detachable device 100). grasp. Note that the detachable device 100 can be configured to be able to execute arbitrary processing, but processing unrelated to the processing to be executed on the imaging device 110 side may not be considered.

一例において、撮像装置110は、例えば入出力装置130から事前に取得した実行されうる処理のリストを保持しておいてもよい。この場合、撮像装置110は、着脱可能デバイス100が実行可能な処理を示す情報を着脱可能デバイス100から取得した際に、その処理がリストに含まれているか否かによって、実行されうる処理を把握することができる。 In one example, the imaging device 110 may hold a list of executable processes acquired in advance from the input/output device 130, for example. In this case, when the imaging apparatus 110 obtains from the detachable device 100 the information indicating the process executable by the detachable device 100, the imaging apparatus 110 grasps the process that can be executed depending on whether or not the process is included in the list. can do.

S804では、撮像装置110は、撮像装置110および着脱可能デバイス100のそれぞれが実行する処理を決定し、必要に応じて着脱可能デバイス100の設定を実行する。すなわち、実行対象として決定された処理の少なくとも一部が着脱可能デバイス100によって実行される場合に、その処理のための着脱可能デバイス100の設定が実行される。この設定においては、例えば、実行対象の処理に対応する設定データを用いたFPGA402の再構成が行われうる。 In S804, the imaging device 110 determines the processing to be executed by each of the imaging device 110 and the removable device 100, and executes settings for the removable device 100 as necessary. That is, when the detachable device 100 executes at least part of the process determined to be executed, the detachable device 100 is set for the process. In this setting, for example, reconfiguration of the FPGA 402 using setting data corresponding to the process to be executed can be performed.

S805では、撮像装置110および/または着脱可能デバイス100は、解析処理を実行する。S806では、撮像装置110は、後処理を実行する。S807では、撮像装置110は、撮像対象の環境状態の変化を監視する。なお、S805~S807の処理は繰り返し実行される。 In S805, the imaging device 110 and/or the removable device 100 performs analysis processing. In S806, the imaging device 110 executes post-processing. In S807, the imaging device 110 monitors changes in the environmental state of the imaging target. Note that the processing of S805 to S807 is repeatedly executed.

図8の処理は、例えば、着脱可能デバイス100が装着された際に実行されるが、例えば着脱可能デバイス100が取り外された際にも、S803の処理が再度実行されるようにするなど、図8の処理の少なくとも一部が繰り返し実行されてもよい。また、S807の処理は、繰り返し実行されなくてもよい。すなわち、スケジューリングの様な他の処理等によってS807の処理が開始されてもよい。 The processing in FIG. 8 is executed, for example, when the removable device 100 is attached. At least part of the process of 8 may be repeatedly performed. Also, the process of S807 does not have to be repeatedly executed. That is, the processing of S807 may be started by other processing such as scheduling.

<実行可能な処理を把握する処理(S803)の詳細>
図9は、実行可能な処理を把握する処理(S803)の詳細フローチャートである。本処理では、撮像装置110は、着脱可能デバイス100で実行可能な処理を読み出し、撮像装置110自身が実行可能な解析処理と統合し、撮像装置110側で実行可能な解析処理を把握する。なお、ここでは、図8に示す一連の処理内で実行されることを想定するが、デバイスの装着・抜去に応じて単独で実行されてもよい。
<Details of Processing (S803) for Grasping Executable Processing>
FIG. 9 is a detailed flowchart of the process (S803) for grasping executable processes. In this process, the imaging device 110 reads out the processing executable by the detachable device 100, integrates it with the analysis processing executable by the imaging device 110 itself, and grasps the analysis processing executable by the imaging device 110 side. Here, it is assumed that this process is executed within the series of processes shown in FIG. 8, but it may be executed independently according to attachment/removal of the device.

S901では、撮像装置110の制御部304は、記憶部303に記憶されている、撮像装置110自身の解析部305において演算処理可能な処理のリスト(以下では第1処理リストと呼ぶ)を読み出す。この時、第1処理リストに学習モデルを用いた処理が含まれている場合は、当該学習モデルに関連付けられている学習モデル情報を取得する。 In S<b>901 , the control unit 304 of the imaging apparatus 110 reads a list of processes (hereinafter referred to as a first process list) stored in the storage unit 303 that can be processed by the analysis unit 305 of the imaging apparatus 110 itself. At this time, if the first process list includes a process using a learning model, learning model information associated with the learning model is acquired.

S902では、制御部304は、装着されたデバイスが、例えば従来の記憶機能のみを有するデバイスであるか、着脱可能デバイス100等の特定の処理機能を有する所定のデバイスであるかを判定する。例えば、制御部304は、デバイス通信部306を制御して、装着されたデバイスに対して、特定のアドレスに対する読み出し要求(リードコマンド)を発行し、その特定のアドレスに格納されているフラグデータを読み出す。以下では、この特定のアドレスを「アドレスA」と呼ぶ場合がある。そして、制御部304は、読み出したフラグデータに基づいて、着脱可能デバイス100が特定の処理機能を有する所定のデバイスであるかを判定しうる。ただし、これは一例に過ぎず、他の方法によって、装着されたデバイスが所定のデバイスであるか否かが判定されてもよい。装着されたデバイスが所定のデバイスである場合はS903に進み、所定のデバイスでない場合はS906に進む。 In S902, the control unit 304 determines whether the attached device is, for example, a device having only a conventional memory function or a predetermined device such as the detachable device 100 having a specific processing function. For example, the control unit 304 controls the device communication unit 306 to issue a read request (read command) for a specific address to the attached device, and read the flag data stored at the specific address. read out. Hereinafter, this specific address may be referred to as "address A". Based on the read flag data, the control unit 304 can determine whether the removable device 100 is a predetermined device having a specific processing function. However, this is only an example, and other methods may be used to determine whether the attached device is the predetermined device. If the attached device is the predetermined device, the process proceeds to S903, and if it is not the predetermined device, the process proceeds to S906.

S903では、制御部304は、着脱可能デバイス100において実行可能な処理を把握するための処理を実行する。制御部304は、デバイス通信部306を制御して着脱可能デバイス100と通信し、着脱可能デバイス100において演算処理可能な処理のリスト(以下では第2処理リストと呼ぶ)を取得する。 In S<b>903 , the control unit 304 executes processing for ascertaining executable processing in the removable device 100 . The control unit 304 controls the device communication unit 306 to communicate with the detachable device 100 and acquires a list of processes that can be processed by the detachable device 100 (hereinafter referred to as a second process list).

本実施形態においては、制御部304は、着脱可能デバイス100が所定のデバイスか否かを判定した場合と同様に、アドレスAに格納されているデータを読み出すことにより、第2処理リストを取得する。この時、制御部304は、第2処理リストに含まれる学習モデルに関連付けられている学習モデル情報を取得しておく。 In this embodiment, the control unit 304 acquires the second processing list by reading the data stored at the address A, as in the case of determining whether the removable device 100 is a predetermined device. . At this time, the control unit 304 acquires learning model information associated with the learning models included in the second processing list.

次に、制御部304は、第2処理リストに、着脱可能デバイス100が保持できる学習モデルの最大データサイズを追加する。複数の学習モデルが保持できる場合は、複数の学習モデルのデータサーズの総和が最大データサイズとなる。着脱可能デバイスに新たに処理を追加する場合、追加処理を実現するために必要な学習モデルのサイズと、既存の処理を実現するために必要な学習モデルのサイズの総和が、最大データサイズを上回らないことが条件となる。 Next, the control unit 304 adds the maximum data size of the learning model that the removable device 100 can hold to the second processing list. When a plurality of learning models can be held, the sum of the data sizes of the plurality of learning models becomes the maximum data size. When adding new processing to a detachable device, the sum of the size of the learning model required to implement the additional processing and the size of the learning model required to implement the existing processing must not exceed the maximum data size. The condition is that there is no

そして、制御部304は、第2処理リストを、例えば、着脱可能デバイスが所定のデバイスであるか否かの判定を行うフラグデータと同一のアドレス(アドレスA)に格納する。この場合、撮像装置110は、そのアドレスAにアクセスすることにより、フラグデータと第2処理リストとを同時に取得して、S902の処理とS903の処理とを同時に実行することができる。ただし、これに限られず、これらのデータは、別のアドレスに格納されてもよい。 Then, the control unit 304 stores the second processing list at the same address (address A) as the flag data for determining whether the detachable device is a predetermined device, for example. In this case, the imaging device 110 can simultaneously acquire the flag data and the second processing list by accessing the address A, and simultaneously execute the processing of S902 and the processing of S903. However, the data is not limited to this, and these data may be stored at another address.

S904では、制御部304は、記憶部303から読み出した撮像装置110自身が実行可能な処理の第1処理リストと、着脱デバイスから取得した第2処理リストとが統合された統合処理リストを作成する。 In step S<b>904 , the control unit 304 creates an integrated processing list in which the first processing list of processing executable by the imaging apparatus 110 read from the storage unit 303 and the second processing list obtained from the detachable device are integrated. .

この統合処理リストは、ネットワーク上のサーバ等の装置による処理が行われることなく、撮像装置110側でローカルに実行可能な処理を示すリストである。なお、本実施形態では、統合処理リストは、第1処理リストに含まれる処理と第2処理リストに含まれる処理との和集合によって得られるリストである。すなわち、第1処理リストと第2処理リストとの少なくともいずれかに含まれる処理がリスト化されたものである。 This integrated processing list is a list showing processing that can be executed locally on the imaging device 110 side without being processed by a device such as a server on the network. Note that in the present embodiment, the integrated process list is a list obtained by the union of the processes included in the first process list and the processes included in the second process list. In other words, it is a list of processes included in at least one of the first process list and the second process list.

ただし、これに限られず、例えば、第1処理リストに含まれる処理と第2処理リストに含まれる処理とを組み合わせることによって別の処理を実行可能となる場合などに、その実行可能となる別の処理が統合処理リストに加えられてもよい。すなわち、第1処理リストに含まれる処理の少なくとも一部と第2処理リストに含まれる処理の少なくとも一部とが共に利用される場合に、新たな解析処理が実行可能となる場合は、その解析処理の情報が統合処理リストに含められうる。例えば、顔認証処理は、顔検出処理機能と顔特徴抽出処理機能と顔特徴照合処理機能の組合せによって実現されうる。そのため、第1処理リストに顔検出処理機能と顔特徴抽出処理機能とが含まれ、第2処理リストに顔特徴照合処理機能が含まれている場合には、統合処理リストに顔認証処理が含められうる。 However, the present invention is not limited to this, and for example, when another process becomes executable by combining the process included in the first process list and the process included in the second process list, another process that becomes executable A process may be added to the consolidated process list. That is, when at least part of the processes included in the first process list and at least part of the processes included in the second process list are used together, if a new analysis process can be executed, the analysis Processing information may be included in the consolidated processing list. For example, face authentication processing can be realized by a combination of a face detection processing function, a facial feature extraction processing function, and a facial feature matching processing function. Therefore, when the first processing list includes the face detection processing function and the facial feature extraction processing function, and the second processing list includes the facial feature matching processing function, the integrated processing list includes the face authentication processing. can be

S905では、制御部304は、第1処理リストと第2処理リストをもとに、学習モデルリストを作成する。具体的には、第2処理リストに含まれる学習モデルに関連づけられている学習モデル情報の検出対象物と、第1処理リストに含まれる学習モデルに関連づけられている学習モデル情報の検出対象物を比較する。そして、一致した学習モデルをリストに追加ことにより、学習モデルリストを作成する。 In S905, the control unit 304 creates a learning model list based on the first processing list and the second processing list. Specifically, the detection target of the learning model information associated with the learning model included in the second processing list and the detection target of the learning model information associated with the learning model included in the first processing list are detected. compare. Then, a learning model list is created by adding the matching learning model to the list.

S906では、制御部304は、装着されたデバイスによって実行可能な処理がないと判定する。このため、制御部304は、記憶部303から読み出した自装置において実行可能な処理である第1処理リストを、撮像装置110側でローカルに実行可能な処理を示す統合処理リストとして、処理を終了する。なお、デバイスが抜去された際に図9の処理が実行されると、所定のデバイスが当然に装着されていないため、第1処理リストが統合処理リストとして扱われることとなる。 In S906, the control unit 304 determines that there is no process that can be executed by the attached device. Therefore, the control unit 304 uses the first process list, which is the process executable in the own apparatus read from the storage unit 303, as an integrated process list indicating the process locally executable on the imaging apparatus 110 side, and ends the process. do. It should be noted that if the process of FIG. 9 is executed when the device is removed, the first process list will be treated as the integrated process list because the predetermined device is naturally not attached.

<S903~S905の処理の動作例>
一例として、図10に、第1処理リスト10A、第2処理リスト10B、及び、学習モデルリスト10Cの例を示す。ここでは、撮像部201で得られた画像フレームに対する様々な画像認識処理のモデルを例に示している。
<Example of Operation of Processing of S903 to S905>
As an example, FIG. 10 shows examples of a first processing list 10A, a second processing list 10B, and a learning model list 10C. Here, various image recognition processing models for image frames obtained by the imaging unit 201 are shown as examples.

第1処理リスト10Aには、昼間特化型人体検出モデル1001、夜間特化型人体検出モデル1002、昼間特化型車両検出モデル1011、夜間特化型車両検出モデル1012、情景判別用学習モデル1021が含まれる。昼間特化型人体検出モデル1001、及び、夜間特化型人体検出モデル1002は、撮像装置110と着脱可能デバイス100のいずれでも実行可能な学習モデルであり、どちらで実行しても解析結果は同じになるものとする。また、どちらのモデルも関連づけられている学習モデル情報の検出対象部は「人体」である。昼間特化型車両検出モデル1011、及び、夜間特化型車両検出モデル1012は、撮像装置110と着脱可能デバイス100のいずれでも実行可能な学習モデルであり、どちらで実行しても解析結果は同じになるものとする。また、どちらのモデルも関連付けられている学習モデル情報の検出対象部は「車両」である。情景判別用学習モデル1021は、撮像装置110と着脱可能デバイス100のいずれでも実行可能な学習モデルであり、どちらで実行しても解析結果は同じになるものとする。また、関連づけられている学習モデル情報の検出対象部は「情景」である。「情景」とは、撮影対象が存在する景色やシーンなどの属性である。 The first processing list 10A includes a daytime-specific human body detection model 1001, a nighttime-specific human body detection model 1002, a daytime-specific vehicle detection model 1011, a nighttime-specific vehicle detection model 1012, and a scene discrimination learning model 1021. is included. The daytime-specific human body detection model 1001 and the nighttime-specific human body detection model 1002 are learning models that can be executed by either the imaging device 110 or the detachable device 100, and the analysis results are the same regardless of whether they are executed. shall be Also, the detection target part of the learning model information associated with both models is the "human body". The daytime-specific vehicle detection model 1011 and the nighttime-specific vehicle detection model 1012 are learning models that can be executed by either the imaging device 110 or the detachable device 100, and the analysis results are the same regardless of whether they are executed. shall be Also, the detection target part of the learning model information associated with both models is "vehicle". The scene discrimination learning model 1021 is a learning model that can be executed by either the imaging device 110 or the detachable device 100, and the analysis result will be the same regardless of whether it is executed. Also, the detection target portion of the associated learning model information is "scene". “Scene” is an attribute of scenery, scene, etc. in which the object to be photographed exists.

一方、第2処理リスト10Bには、昼間特化型人体検出モデル1001が含まれる。前述したとおり、当該モデルに関連付けられている学習モデル情報の検出対象物は「人体」である。そのため、第2処理リストに含まれる昼間特化型人体検出モデル1001の検出対象物「人体」と一致する、第1処理リストに含まれる学習モデルは、昼間特化型人体検出モデル1001、及び、夜間特化型人体検出モデル1002である。 On the other hand, the second processing list 10B includes a daytime specialized human body detection model 1001 . As described above, the detection target of the learning model information associated with the model is the "human body". Therefore, the learning models included in the first processing list that match the detection target "human body" of the daytime-specific human body detection model 1001 included in the second processing list are the daytime-specific human body detection model 1001, and It is a nighttime specialized human body detection model 1002 .

よって、S905の処理によって生成される学習モデルリスト10Cには、昼間特化型人体検出モデル1001、及び、夜間特化型人体検出モデル1002が含まれることになる。すなわち、学習モデルリスト10Cには、検出対象物が第2処理リストの学習モデルと同じであり、かつ、第1処理リストから第2処理リストに追加可能な学習モデルが含まれることになる。 Therefore, the learning model list 10C generated by the process of S905 includes the daytime-specific human body detection model 1001 and the nighttime-specific human body detection model 1002. FIG. In other words, the learning model list 10C includes learning models that have the same detection target as the learning models in the second processing list and that can be added from the first processing list to the second processing list.

また、本実施形態において、それぞれの学習モデルを利用した解析結果には、解析に用いた画像、検出した人体の位置情報、及び、検出した人体の尤度(検出物体がそのものである確率、自信度)が含まれるものとする。 In this embodiment, the analysis results using each learning model include the image used for analysis, the position information of the detected human body, and the likelihood of the detected human body (probability that the detected object is itself, confidence degree) shall be included.

このような処理により、特定の処理を実行可能な着脱可能デバイス100が撮像装置110に装着されているか否かに基づいて、撮像装置110側でローカルに実行可能な処理をリスト化することができる。また、統合処理リストを後述のようにユーザに提示することにより、着脱可能デバイス100の装着によって撮像装置110側でローカルに実行可能となる処理を、ユーザが選択することができるようになる。 Through such processing, based on whether or not the detachable device 100 capable of executing specific processing is attached to the imaging device 110, it is possible to list processing that can be locally executed on the imaging device 110 side. . Also, by presenting the integrated processing list to the user as described later, the user can select processing that can be locally executed on the imaging apparatus 110 side by mounting the detachable device 100 .

なお、本実施形態では、統合処理リストを生成する場合の例を示したが、第1処理リストと第2処理リストとを別個に管理し、統合処理リストを生成しなくてもよい。すなわち、着脱可能デバイス100で実行可能な処理と、着脱可能デバイス100を伴わずに撮像装置110で実行可能な処理とが区別可能に管理され、出力されてもよい。また、第1処理リストと第2処理リストが区別可能に管理される場合であっても、統合処理リストが生成され、管理されてもよい。例えば、第1処理リストに含まれる処理と第2処理リストに含まれる処理とが共に使用されることにより新たな処理を実行可能な場合に、その新たな処理は、第1処理リストと第2処理リストには含まれないが、統合処理リストに含まれることとなる。なお、統合処理リストが出力される場合、併せて、その統合処理リストに含まれる処理が第1処理リストと第2処理リストとのいずれに含まれる処理であるかを区別可能に示す情報が出力されうる。これにより、例えば提示された処理を着脱可能デバイス100なしで実行可能であるかをユーザが認識することができるようになる。 Although the present embodiment has exemplified the case of generating the integrated processing list, the first processing list and the second processing list may be managed separately, and the integrated processing list may not be generated. That is, the process that can be executed by the removable device 100 and the process that can be executed by the imaging device 110 without the removable device 100 may be managed and output in a distinguishable manner. Further, even when the first processing list and the second processing list are managed in a distinguishable manner, an integrated processing list may be generated and managed. For example, when a new process can be executed by using both the process included in the first process list and the process included in the second process list, the new process can be executed in the first process list and the second process list. It is not included in the processing list, but will be included in the integrated processing list. When the integrated processing list is output, information is also output that indicates whether the processing included in the integrated processing list is included in the first processing list or the second processing list in a distinguishable manner. can be This allows the user to recognize whether the presented process can be executed without the removable device 100, for example.

なお、本実施形態では、上述の処理リストは、後述のように、入出力装置130のような、少なくとも撮像装置110に含まれない外部装置に提供されることを想定するが、外部に提供されなくてもよい。例えば、撮像装置110がディスプレイを有する場合にそのディスプレイに処理リストが表示されることや、撮像装置110が音声出力機能を有する場合に処理リストが音声出力されることなどによって、処理リストが出力されてもよい。撮像装置110において処理リストが提示されることにより、意図しない機能を有する着脱可能デバイス100を撮像装置110に誤って装着させた場合等に、ユーザがその誤装着を迅速に認識することが可能となる。このように、撮像装置110は、撮像装置110が実行可能な処理を示す第1処理リストと着脱可能デバイス100が実行可能な処理を示す第2処理リストとに基づく情報を、任意の形式で出力しうる。 In this embodiment, it is assumed that the processing list described above is provided to at least an external device not included in the imaging device 110, such as the input/output device 130, as described later. It doesn't have to be. For example, if the imaging device 110 has a display, the processing list is displayed on the display, or if the imaging device 110 has an audio output function, the processing list is output by voice. may By presenting the processing list in the imaging apparatus 110, when the detachable device 100 having an unintended function is erroneously attached to the imaging apparatus 110, the user can quickly recognize the erroneous attachment. Become. In this way, the imaging device 110 outputs information in any format based on the first processing list indicating processes executable by the imaging device 110 and the second processing list indicating processes executable by the removable device 100. I can.

また、撮像装置110は、着脱可能デバイス100が抜去された場合には、図9の処理を再度実行することによって、統合処理リストを更新することができる。また、この時、撮像装置110は、抜去された着脱可能デバイス100に関する第2処理リストを破棄しうる。ただし、これに限られず、撮像装置110は、ある着脱可能デバイス100についての第2処理リストを記憶部303に別途記憶しておき、その着脱可能デバイス100が装着されていない場合であっても、その第2処理リストを出力しうる。すなわち、撮像装置110は、過去に装着されて抜去された着脱可能デバイス100についての第2処理リストを出力するようにしてもよい。また、撮像装置110は、その過去に装着されて抜去された着脱可能デバイス100についての第2処理リストに含まれる処理と、第1処理リストに含まれる(自装置で実行可能な)処理とを用いて実行可能となる処理を示す情報を出力してもよい。換言すれば、撮像装置110は、自装置のみでは実行できない処理の情報を出力しうる。これによれば、ユーザに対して、出力された情報が示す処理を実行可能な着脱可能デバイス100が存在することと、その着脱可能デバイス100を装着することにより、その処理が実行可能となることを通知することができる。 Further, when the removable device 100 is removed, the imaging apparatus 110 can update the integrated process list by executing the process of FIG. 9 again. Also, at this time, the imaging apparatus 110 can discard the second processing list regarding the removed removable device 100 . However, not limited to this, the imaging apparatus 110 separately stores the second processing list for a certain detachable device 100 in the storage unit 303, and even if the detachable device 100 is not attached, The second processing list can be output. That is, the imaging device 110 may output the second processing list for the detachable device 100 that was attached and removed in the past. In addition, the imaging device 110 performs processing included in the second processing list for the detachable device 100 attached and removed in the past, and processing (executable by itself) included in the first processing list. You may output the information which shows the process which becomes executable using. In other words, the imaging device 110 can output information on processing that cannot be executed by itself. According to this, the user is informed that the detachable device 100 capable of executing the process indicated by the output information exists and that the process can be executed by wearing the detachable device 100. can be notified.

さらに、撮像装置110は、過去に当該撮像装置110に装着したことがないが、撮像装置110に装着可能な他の着脱可能デバイス100(未装着デバイス)についての第2処理リストを出力するようにしてもよい。このような未装着デバイスとその未装着デバイスが実行可能な解析処理を示す情報は、例えば、撮像装置110が外部のサーバ(不図示)からネットワークを介して取得することができる。また、未装着デバイスとその未装着デバイスが実行可能な解析処理を示す情報は、例えば、撮像装置110が事前に保持していてもよい。 Furthermore, the imaging device 110 outputs a second processing list for other detachable devices 100 (non-attached devices) that have never been attached to the imaging device 110 in the past but can be attached to the imaging device 110. may For example, the imaging device 110 can acquire such information indicating the unmounted device and the analysis processing that can be executed by the unmounted device from an external server (not shown) via a network. Further, the information indicating the non-mounted device and the analysis processing that can be executed by the non-mounted device may be held in advance by the imaging device 110, for example.

また、撮像装置110は、未装着デバイスについての第2処理リストに含まれる処理と、第1処理リストに含まれる(自装置で実行可能な)処理とを用いて実行可能となる処理を示す情報を出力してもよい。換言すれば、撮像装置110は、自装置のみでは実行できない処理の情報を出力しうる。これによれば、ユーザに対して、出力された情報が示す処理を実行可能な着脱可能デバイス100が存在することと、その着脱可能デバイス100を装着することにより、その処理が実行可能となることを通知することができる。 In addition, information indicating processing that can be executed by the imaging device 110 using the processing included in the second processing list for the non-mounted device and the processing (executable by the own device) included in the first processing list. may be output. In other words, the imaging device 110 can output information on processing that cannot be executed by itself. According to this, the user is informed that the detachable device 100 capable of executing the process indicated by the output information exists and that the process can be executed by wearing the detachable device 100. can be notified.

なお、撮像装置110は、過去に装着されて抜去された着脱可能デバイス100についての第2処理リストを記憶する際に、その着脱可能デバイス100の機種番号などのデバイスを特定可能な情報を併せて記憶しうる。そして、撮像装置110は、その着脱可能デバイス100に関する第2処理リストを出力する際に、その着脱可能デバイス100を特定可能な情報も併せて出力しうる。これによれば、ユーザが、提示された処理機能を使用するために、どの着脱可能デバイス100を撮像装置110に装着すればよいかを容易に認識することができるようになる。 When storing the second processing list for the detachable device 100 that has been attached and removed in the past, the imaging device 110 also stores information that can identify the detachable device 100, such as the model number of the detachable device 100. can remember. Then, when outputting the second processing list related to the detachable device 100 , the imaging device 110 can also output information that can identify the detachable device 100 . This allows the user to easily recognize which detachable device 100 should be attached to the imaging device 110 in order to use the presented processing function.

<実行する解析処理を決定する処理(S804)の詳細>
図11は、実行する解析処理を決定する処理(S804)の詳細フローチャートである。本処理では、撮像装置110側でローカルに実行可能な解析処理が入出力装置130を介してユーザに提示され、入出力装置130はユーザの選択を受け付ける。そして、撮像装置110は、入出力装置130を介して受け付けられたユーザ選択を示す情報に応じて、実行する解析処理を決定する。
<Details of Processing for Determining Analysis Processing to be Executed (S804)>
FIG. 11 is a detailed flowchart of the process (S804) for determining the analysis process to be executed. In this processing, analysis processing locally executable on the imaging device 110 side is presented to the user via the input/output device 130, and the input/output device 130 accepts the user's selection. Then, the imaging device 110 determines the analysis process to be executed according to the information indicating the user's selection received via the input/output device 130 .

S1101では、入出力装置130の制御部702は、ネットワーク通信部701を制御して、撮像装置110との通信を実行し、撮影画像と統合処理リストと後処理リストとの取得を要求する。入出力装置130は、一例として、ONVIF規格で規定された要求メッセージを撮像装置110へ送信することによって、撮像装置110へ情報の送信を要求する。ただし、これに限られず、他のメッセージ等によって情報の送信要求が行われてもよい。 In S1101, the control unit 702 of the input/output device 130 controls the network communication unit 701 to communicate with the imaging device 110 and request acquisition of the captured image, the integrated processing list, and the post-processing list. For example, the input/output device 130 requests the imaging device 110 to transmit information by transmitting a request message defined by the ONVIF standard to the imaging device 110 . However, the information is not limited to this, and the information transmission request may be made by another message or the like.

S1102では、撮像装置110は、この要求に基づいて、撮像制御部301が周囲(撮像対象)の環境を撮影し、制御部304が信号処理部302を制御して、撮像制御部301によって撮影された画像を処理して、撮影画像を取得する。なお、撮像装置110は、要求の有無によらず周囲の環境を撮影して、撮影画像を取得し続けていてもよい。撮像装置110は、撮影画像をローカルに保存していてもよいし、ネットワークサーバ等の他装置に撮影画像を転送して保存させてもよい。制御部304は、記憶部303に記憶されている後処理リストを読み出す。後処理リストは、本実施形態では表示処理及び保存処理を含むものとするが、これに限られない。 In step S<b>1102 , in the imaging apparatus 110 , based on this request, the imaging control unit 301 captures an image of the surrounding (imaging target) environment, the control unit 304 controls the signal processing unit 302 , and the image captured by the imaging control unit 301 is captured. The captured image is obtained by processing the captured image. Note that the imaging device 110 may capture images of the surrounding environment regardless of whether or not there is a request, and may continue to acquire captured images. The imaging device 110 may store the captured image locally, or may transfer the captured image to another device such as a network server and store the captured image. The control unit 304 reads out the post-processing list stored in the storage unit 303 . The post-processing list includes display processing and storage processing in this embodiment, but is not limited to this.

S1103では、制御部304は、ネットワーク通信部307を制御して、後処理リストと、図9の処理によって取得した統合処理リストと、S1102で取得した撮影画像とを入出力装置130へ送信する。撮像装置110は、一例として、上述のONVIF規格で規定された要求メッセージに対する応答メッセージを入出力装置130へ送信することによって、入出力装置130へ情報を送信する。ただし、これに限られず、他のメッセージ等によって情報の送信が行われてもよい。なお、ここでは、実行する処理のみが考慮されてもよく、S1101の入出力装置130による撮影画像の要求、S1102における撮影画像の取得、及びS1103の入出力装置130への撮影画像の送信は行われなくてもよい。 In S<b>1103 , the control unit 304 controls the network communication unit 307 to transmit the post-processing list, the integrated processing list acquired by the processing in FIG. 9 , and the captured image acquired in S<b>1102 to the input/output device 130 . The imaging device 110 transmits information to the input/output device 130 by, for example, transmitting to the input/output device 130 a response message to the request message defined by the ONVIF standard described above. However, the information is not limited to this, and information may be transmitted by another message or the like. Here, only the processing to be executed may be considered, and the request for the captured image by the input/output device 130 in S1101, the acquisition of the captured image in S1102, and the transmission of the captured image to the input/output device 130 in S1103 are performed. It doesn't have to be broken.

S1104では、入出力装置130の制御部702は、ネットワーク通信部701を制御して、撮像装置110から撮影画像と統合処理リストと後処理リストを受信する。そして、制御部702は、表示部703を制御して、画面表示等によって、統合処理リストと後処理リストをユーザに提示する。なお、制御部702は、この時に、併せて撮影画像を画面表示等によってユーザに提示してもよい。 In S<b>1104 , the control unit 702 of the input/output device 130 controls the network communication unit 701 to receive the captured image, the integrated processing list, and the post-processing list from the imaging device 110 . Then, the control unit 702 controls the display unit 703 to present the integrated processing list and the post-processing list to the user through screen display or the like. At this time, the control unit 702 may also present the captured image to the user through screen display or the like.

S1105では、ユーザは、表示部703によって表示された統合処理リストと後処理リストを確認し、操作部704を介して、実行すべき解析処理(以下では実行対象処理と呼ぶ)を統合処理リストの中から選択する。また、S1106では、ユーザは、操作部704を介して、実行すべき後処理(以下では実行対象後処理と呼ぶ)を選択する。操作部704は、実行対象処理と実行対象後処理の選択結果を、制御部702に出力する。 In S1105, the user confirms the integrated processing list and the post-processing list displayed by the display unit 703, and selects analysis processing to be executed (hereinafter referred to as execution target processing) in the integrated processing list via the operation unit 704. to choose from. Also, in S1106, the user selects post-processing to be executed (hereinafter referred to as execution target post-processing) via the operation unit 704. FIG. The operation unit 704 outputs the selection result of the execution target process and the execution target post-processing to the control unit 702 .

S1107では、制御部702は、ネットワーク通信部701を制御して、操作部704から入力された実行対象処理と実行対象後処理を示す情報を撮像装置110へ送信する。 In step S<b>1107 , the control unit 702 controls the network communication unit 701 to transmit information indicating the execution target process and the execution target post-processing input from the operation unit 704 to the imaging apparatus 110 .

S1108では、撮像装置110の制御部304は、入出力装置130からユーザによって選択された実行対象処理を示す情報を受信すると、その実行対象処理が第2処理リストに含まれている処理であるか否かを判定する。そして、実行対象処理が第2処理リストに含まれている場合にはS1109に進む。一方、実行対象処理が第2処理リストに含まれていない場合には、撮像装置110内で処理を実行するため、制御部304は、着脱可能デバイス100への通知等を行うことなく図11の処理を終了する。 In S1108, upon receiving information indicating the execution target process selected by the user from the input/output device 130, the control unit 304 of the imaging apparatus 110 determines whether the execution target process is included in the second process list. determine whether or not Then, if the execution target process is included in the second process list, the process advances to S1109. On the other hand, if the execution target process is not included in the second process list, the control unit 304 executes the process in the imaging apparatus 110, so that the control unit 304 executes the process shown in FIG. End the process.

S1109では、制御部304は、デバイス通信部306を制御して、実行対象処理の設定要求を着脱可能デバイス100に送信する。着脱可能デバイス100の通信部502は、実行対象処理の設定要求を撮像装置110から受信する。通信部502は、撮像装置110から受信した実行対象処理の設定要求を、解析部501に出力する。 In S<b>1109 , the control unit 304 controls the device communication unit 306 to transmit to the detachable device 100 an execution target process setting request. The communication unit 502 of the detachable device 100 receives the request for setting the execution target process from the imaging device 110 . The communication unit 502 outputs, to the analysis unit 501 , the execution target process setting request received from the imaging device 110 .

S1110では、解析部501は、実行対象処理の設定要求に基づいて、記憶部503から実行対象処理の設定を取得して、着脱可能デバイス100が実行対象処理を実行可能な状態となるようにするための設定を実行する。 In S1110, the analysis unit 501 acquires the setting of the execution target process from the storage unit 503 based on the execution target process setting request, and enables the removable device 100 to execute the execution target process. Run the settings for

S1111では、通信部502は、例えば設定処理が完了した後に、設定完了通知を撮像装置110へ送信する。なお、通信部502は、着脱可能デバイス100の設定が完了していないタイミングで撮像装置110がデータを書き込まないようにするための情報を通知すれば足り、設定が実際に完了する前に設定完了タイミングの情報等を撮像装置110に通知してもよい。撮像装置110の制御部304は、デバイス通信部306を制御して、着脱可能デバイス100から設定完了通知を受信する。 In step S<b>1111 , the communication unit 502 transmits a setting completion notification to the imaging device 110 after the setting process is completed, for example. Note that it is sufficient for the communication unit 502 to notify the information for preventing the imaging apparatus 110 from writing data at the timing when the setting of the detachable device 100 is not completed. Timing information or the like may be notified to the imaging device 110 . The control unit 304 of the imaging device 110 controls the device communication unit 306 to receive the setting completion notification from the detachable device 100 .

着脱可能デバイス100からの撮像装置110への設定完了の通知は、例えば、以下の3つ方法のうちのいずれかを用いて実行されうる。1つ目の通知方法では、通信部502が、撮像装置110からの1ブロック目のデータの書き込み処理時に、実行対象処理の設定が終了していない場合に、BUSY信号を出力するようにする。BUSY信号の出力は、例えば、SD規格で定められているDATAの信号ラインをLow状態にドライブしておくことにより行われる。この場合、撮像装置110は、BUSY信号を確認することにより、実行対象処理の設定が完了したか否かを判別することができる。2つ目の通知方法では、実行対象処理の設定完了までの時間を上述の特定のアドレスに事前に格納しておき、撮像装置110がその設定完了までの時間の情報を読み出すようにする。撮像装置110は、実行対象処理の設定完了までの時間が経過した後に、書き込みデータの出力(ライトコマンドの発行)を行う。これにより、撮像装置110は、実行対象処理の設定が完了した後に撮影画像のデータを送信することが可能となる。3つ目の通知方法では、解析部501が、実行対象処理の設定が完了した際に、着脱可能デバイス100の第2の特定のアドレスに設定完了のフラグを書き込む。撮像装置110は、この第2の特定のアドレスのデータを読み出すことにより、実行対象処理の設定が完了したか否かを判別することができる。なお、設定完了のフラグが書き込まれるアドレスの情報は、上述の特定のアドレスに格納されてもよいし、別のアドレスに格納されてもよい。 Notification of completion of setting from the detachable device 100 to the imaging device 110 can be executed using, for example, one of the following three methods. In the first notification method, the communication unit 502 outputs a BUSY signal when the setting of the execution target process has not been completed during the writing process of the first block of data from the imaging device 110 . The BUSY signal is output, for example, by driving the DATA signal line defined by the SD standard to the Low state. In this case, the imaging device 110 can determine whether or not the setting of the execution target process is completed by checking the BUSY signal. In the second notification method, the time until setting completion of the processing to be executed is stored in advance in the above-described specific address, and the imaging device 110 reads information on the time until setting completion. The imaging device 110 outputs the write data (issues the write command) after the time until the setting of the execution target process is completed has elapsed. Accordingly, the imaging device 110 can transmit the data of the captured image after the setting of the execution target process is completed. In the third notification method, the analysis unit 501 writes a setting completion flag to the second specific address of the detachable device 100 when the setting of the execution target process is completed. The imaging device 110 can determine whether or not the setting of the execution target process is completed by reading the data at the second specific address. Information on the address to which the setting completion flag is written may be stored in the above-described specific address or may be stored in another address.

図11の処理のように、特定の処理を実行可能な着脱可能デバイス100が撮像装置110に装着されたか否かによって定まる統合処理リストを用いることにより、撮像装置110側の状態を考慮して実行対象処理を適切に決定することができる。また、実行対象処理が着脱可能デバイス100で実行される処理を含む場合に着脱可能デバイス100の設定を自動で行うことにより、ユーザによる設定操作を行うことなく、ユーザが選択した処理を実行する準備を整えることができる。また、実行対象処理が着脱可能デバイス100で実行される処理を含まない場合に着脱可能デバイス100の設定を行わないことで、撮像装置110単体で処理を実行する場合に不必要に着脱可能デバイス100の設定が行われることを防ぐことができる。 As in the process of FIG. 11, by using an integrated process list determined by whether or not the detachable device 100 capable of executing a specific process is attached to the imaging apparatus 110, the state of the imaging apparatus 110 is taken into account. Target processing can be determined appropriately. Further, when the execution target process includes a process to be executed by the removable device 100, the setting of the removable device 100 is automatically performed, thereby preparing to execute the process selected by the user without performing a setting operation by the user. can be arranged. By not setting the detachable device 100 when the process to be executed does not include the process to be executed by the detachable device 100, the detachable device 100 is unnecessarily set when the imaging apparatus 110 alone executes the process. can be prevented from being set.

<解析処理の実行処理(S805)の詳細>
図12は、第1実施形態における解析処理の実行処理(S805)の詳細フローチャートである。具体的には、撮像装置110が解析処理を実行する際の制御の流れを示している。
<Details of Analysis Processing Execution Processing (S805)>
FIG. 12 is a detailed flowchart of the analysis process execution process (S805) in the first embodiment. Specifically, it shows the flow of control when the imaging device 110 executes analysis processing.

S1201では、撮像制御部301は、周囲の環境を撮影する。制御部304は、信号処理部302を制御して、撮像制御部301によって撮影された画像の処理を行い、撮影画像を取得する。 In S1201, the image capturing control unit 301 captures an image of the surrounding environment. The control unit 304 controls the signal processing unit 302 to process the image captured by the imaging control unit 301 and acquires the captured image.

S1202では、制御部304は、解析部305を制御して、制御部304から入力された撮影画像に対して解析前処理を実行し、解析前処理結果の画像を取得する。 In S1202, the control unit 304 controls the analysis unit 305 to perform pre-analysis processing on the captured image input from the control unit 304, and acquires an image as a result of the pre-analysis processing.

S1203では、制御部304は、現在、学習モデルの切り替え中か判定する。本実施形態では、学習モデルの切り替え中フラグを使用する。より具体的には、学習モデル切り替え中フラグが有効の場合は、学習モデルの切り替え中、無効の場合は、学習モデルの切り替え中ではないと判定する。学習モデルの切り替え中と判定された場合はS1204に進み、学習モデルの切り替え中ではないと判定された場合はS1205に進む。 In S1203, the control unit 304 determines whether the learning model is currently being switched. In this embodiment, a learning model switching flag is used. More specifically, when the learning model switching flag is valid, it is determined that the learning model is being switched, and if it is invalid, it is determined that the learning model is not being switched. If it is determined that the learning model is being switched, the process proceeds to S1204, and if it is determined that the learning model is not being switched, the process proceeds to S1205.

S1204では、制御部304は解析部305を制御して、撮像装置110内で解析前処理結果の画像に対して実行対象処理を代替実行する。そして、その後S1208に進む。 In S<b>1204 , the control unit 304 controls the analysis unit 305 to alternatively execute the execution target process on the image of the pre-analysis processing result in the imaging apparatus 110 . After that, the process proceeds to S1208.

S1205では、制御部304はデバイス通信部306を制御して、解析前処理結果の画像を着脱可能デバイス100に送信する。例えば、制御部304は、解析前処理結果の書き込み要求(ライトコマンド)を発行することにより、着脱可能デバイス100へ解析前処理結果の画像を送信する。着脱可能デバイス100の通信部502は、解析前処理結果の画像を撮像装置110から受信し、撮像装置110から受信した画像を解析部501に出力する。 In S<b>1205 , the control unit 304 controls the device communication unit 306 to transmit the pre-analysis processing result image to the detachable device 100 . For example, the control unit 304 transmits an image of the pre-analysis processing result to the detachable device 100 by issuing a write request (write command) for the pre-analysis processing result. The communication unit 502 of the detachable device 100 receives the pre-analysis processing result image from the imaging device 110 and outputs the image received from the imaging device 110 to the analysis unit 501 .

S1206では、解析部501は、通信部502から入力された画像に対して、図11のS1110において設定された実行対象処理を実行する。S1207では、通信部502は、解析部501による処理によって得られた解析処理結果を撮像装置110へ送信する。そして、撮像装置110の制御部304は、デバイス通信部306を制御して、着脱可能デバイス100から解析処理結果を受信する。S1208では、制御部304は、解析処理結果に対する解析後処理を実行し、その後処理を終了する。 In S1206, the analysis unit 501 executes the execution target process set in S1110 of FIG. 11 on the image input from the communication unit 502. FIG. In S<b>1207 , the communication unit 502 transmits the analysis processing result obtained by the processing by the analysis unit 501 to the imaging device 110 . The control unit 304 of the imaging device 110 then controls the device communication unit 306 to receive the analysis processing result from the detachable device 100 . In S1208, the control unit 304 executes post-analysis processing for the analysis processing result, and then terminates the processing.

着脱可能デバイス100から撮像装置110への解析処理結果の送信は、例えば以下のようにして行われる。着脱可能デバイス100の解析部501は、解析処理結果を実行対象処理ごとに割り当てられた解析処理結果の格納先アドレスに格納する。そして、撮像装置110は、例えば第2処理リストと共にアドレスAに格納された解析処理結果の格納アドレスを示す情報を読み出し、その格納アドレスに対する読み出し要求(リードコマンド)を発行する。着脱可能デバイス100は、通信部502を介して、解析処理結果の格納アドレスへの読み出し要求を受け取り、解析処理結果を撮像装置110に対して出力する。なお、撮像装置110は、例えばアドレスAに格納されている推定処理時間が経過した後に、解析処理結果の格納アドレスに対する読み出し要求を発行しうる。また、着脱可能デバイス100が、撮像装置110から送信された解析前処理結果の最後の1ブロックの書き込み要求から実行対象処理が終了するまでの間はBUSY信号を出力するようにしてもよい。この場合、撮像装置110は、BUSY信号を受信しなくなってから、解析処理結果の格納アドレスに対する読み出し要求を発行しうる。これにより、撮像装置110は、処理が終了した後に処理結果を取得することが可能となる。 Transmission of analysis processing results from the detachable device 100 to the imaging device 110 is performed, for example, as follows. The analysis unit 501 of the detachable device 100 stores the analysis processing result in the analysis processing result storage address assigned to each execution target process. Then, the imaging device 110 reads, for example, information indicating the storage address of the analysis processing result stored in the address A together with the second processing list, and issues a read request (read command) for the storage address. The detachable device 100 receives a read request to the storage address of the analysis processing result via the communication unit 502 and outputs the analysis processing result to the imaging device 110 . Note that the imaging device 110 can issue a read request to the storage address of the analysis processing result after the estimated processing time stored in the address A has passed, for example. Also, the removable device 100 may output a BUSY signal from the time when the last block of the pre-analysis processing result transmitted from the imaging device 110 is requested to be written until the processing to be executed ends. In this case, the imaging device 110 can issue a read request for the storage address of the analysis processing result after it stops receiving the BUSY signal. Thereby, the imaging device 110 can acquire the processing result after the processing is completed.

以上のような処理により、撮像装置110は、選択された実行対象処理に応じて、撮影画像を着脱可能デバイス100に転送するか否かを決定することができる。これにより、ユーザは、解析処理が撮像装置110により実行されるか着脱可能デバイス100により実行されるかを意識することなく、撮影画像の解析処理が実行されることになる。 With the above-described processing, the imaging apparatus 110 can determine whether to transfer the captured image to the detachable device 100 according to the selected execution target processing. As a result, the user can perform the analysis processing of the captured image without being aware of whether the analysis processing is performed by the imaging device 110 or the detachable device 100 .

<後処理の実行処理(S806)の詳細>
図13は、後処理の実行処理(S806)の詳細フローチャートである。具体的には、撮像装置110が後処理を実行する際の制御の流れの例を示している。
<Details of post-processing execution processing (S806)>
FIG. 13 is a detailed flowchart of the post-processing execution process (S806). Specifically, an example of the flow of control when the imaging device 110 executes post-processing is shown.

S1301では、撮像装置110の制御部304が、実行対象の後処理に「表示」が含まれるか否かを判定する。実行対象の後処理に「表示」が含まれると判定した場合はS1302に進み、「表示」が含まれていないと判定した場合はS1304に進む。 In S1301, the control unit 304 of the imaging apparatus 110 determines whether or not "display" is included in post-processing to be executed. If it is determined that "display" is included in the post-processing to be executed, the process proceeds to S1302, and if it is determined that "display" is not included, the process proceeds to S1304.

S1302では、制御部304は、ネットワーク通信部307を制御して、解析処理の結果を入出力装置130へ送信する。S1303では、入出力装置130の制御部702は、撮像装置110から解析処理の結果を受信すると、表示部703を制御して、解析処理の結果を画面表示等によってユーザに提示する。 In S<b>1302 , the control unit 304 controls the network communication unit 307 to transmit the result of analysis processing to the input/output device 130 . In S1303, when the control unit 702 of the input/output device 130 receives the result of the analysis processing from the imaging device 110, it controls the display unit 703 to present the result of the analysis processing to the user by screen display or the like.

S1304では、撮像装置110の制御部304は、実行対象の後処理に「保存」が含まれるか否かの判定を行う。なお、S1304の判定は、S1301の前に実行されてもよいし、S1301と並行して実行されてもよい。実行対象の後処理に「保存」が含まれると判定した場合はS1305に進み、「保存」が含まれていないと判定した場合は処理を終了する。S1305では、制御部304は、記憶部303を制御して、解析処理の結果を保存し、処理を終了する。 In S1304, the control unit 304 of the imaging apparatus 110 determines whether or not the post-processing to be executed includes "save". Note that the determination of S1304 may be performed before S1301 or may be performed in parallel with S1301. If it is determined that "save" is included in the post-processing to be executed, the process advances to step S1305, and if it is determined that "save" is not included, the process ends. In S1305, the control unit 304 controls the storage unit 303 to save the analysis processing result, and ends the processing.

このように、撮像装置110は、ユーザによる特段の設定操作を受け付けることなく、選択された後処理に応じて、解析処理の結果の転送や保存を実行することができ、利便性を向上させることができる。 In this way, the imaging apparatus 110 can transfer or save the result of analysis processing according to the selected post-processing without receiving a special setting operation by the user, thereby improving convenience. can be done.

<環境変化の監視処理(S807)の詳細>
撮像装置110が、情景の変化を検知して、情景に最適な学習モデルを選択して、解析処理を中断することなく、着脱可能デバイス100の学習モデルを切り替える処理について説明する。ここでは、一例として、着脱可能デバイス100で昼間特化型人体検出モデル1001を実行している間に、周囲の情景が変化した場合について説明する。具体的には、昼から夜に変化し、着脱可能デバイス100の学習モデルを夜間特化型人体検出モデル1002に変更する場合について説明する。
<Details of environmental change monitoring process (S807)>
A process will be described in which the imaging device 110 detects a change in the scene, selects the learning model most suitable for the scene, and switches the learning model of the detachable device 100 without interrupting the analysis process. Here, as an example, a case where the surrounding scene changes while the detachable device 100 is executing the daytime-specific human body detection model 1001 will be described. Specifically, a case where daytime changes to nighttime and the learning model of the detachable device 100 is changed to the night-specific human body detection model 1002 will be described.

図14は、環境変化の監視処理(S807)の詳細フローチャートである。上述のように、撮像装置110が情景の変化を監視し学習モデルを変更する流れの例を示している。 FIG. 14 is a detailed flowchart of the environmental change monitoring process (S807). As described above, an example of the flow in which the imaging device 110 monitors changes in the scene and changes the learning model is shown.

S1401では、解析部305が、情景判別用学習モデル1021を用いて撮影画像を解析する。本実施形態では、撮像画像を解析して情景の「昼」「夜」を判別するものとする。制御部304は、解析部305の解析結果を情景情報として記憶部303に保管する。 In S1401, the analysis unit 305 analyzes the captured image using the learning model 1021 for scene discrimination. In this embodiment, it is assumed that the captured image is analyzed to determine whether the scene is “daytime” or “nighttime”. The control unit 304 stores the analysis result of the analysis unit 305 in the storage unit 303 as scene information.

S1402では、制御部304が記憶部303に保管されている情景情報とS1401で取得した情景情報を比較して、情景が変化したかを判定する。情景が変化したと判定した場合はS1403に進み、情景が変化しなかったと判定した場合は処理を終了する。ここでは、記憶部303に情景情報として「昼」が保管されていて、S1401の情景情報が「夜」であったため、情景が変化したと判定されるものとする。 In S1402, the control unit 304 compares the scene information stored in the storage unit 303 with the scene information acquired in S1401 to determine whether the scene has changed. If it is determined that the scene has changed, the process proceeds to S1403, and if it is determined that the scene has not changed, the process ends. Here, it is assumed that "daytime" is stored as the scene information in the storage unit 303 and the scene information in S1401 is "night", so it is determined that the scene has changed.

S1403では、制御部304は、情景に最適な学習モデルを選択する。ここでは、夜間特化型人体検出モデル1002を選択する。そして、S1404では、制御部304は、学習モデルの切り替え処理を開始し、処理を終了する。 In S1403, the control unit 304 selects the optimal learning model for the scene. Here, the nighttime-specific human body detection model 1002 is selected. Then, in S1404, the control unit 304 starts learning model switching processing and ends the processing.

ここでは、情景の判別に使用するデータとして、画像データを用いる例を示したが、撮像装置110の撮影対象の環境を判別可能な他のデータを用いてもよい。例えば、温度データ、湿度データ、水量データ、音データ、照度データ、位置データ、時刻データなどのデータをセンサから取得し使用してもよい。 Here, an example of using image data as the data used for discriminating the scene is shown, but other data that can discriminate the environment of the imaging target of the imaging device 110 may be used. For example, data such as temperature data, humidity data, water volume data, sound data, illuminance data, position data, and time data may be acquired from sensors and used.

図15は、学習モデルの選択処理(S1403)の詳細フローチャートである。具体的には、撮像装置110が情景に最適な学習モデルを判定する処理の流れの例を示している。 FIG. 15 is a detailed flowchart of the learning model selection process (S1403). Specifically, it shows an example of the flow of processing in which the imaging device 110 determines the learning model that is most suitable for the scene.

S1501では、制御部304は、学習モデルリスト10Cに存在する学習モデルの個数を確認する。学習モデルの個数が2つ以上の場合はS1502に進み、学習モデルの個数が1つ以下の場合は実行対象処理以外に選択肢がないため処理を終了する。 In S1501, the control unit 304 confirms the number of learning models existing in the learning model list 10C. If the number of learning models is two or more, the process advances to S1502.

S1502では、制御部304は、着脱可能デバイス100から「現在の解析結果」、及び、その解析に用いた画像を取得して比較用画像として記憶部303に保存する。本実施例では、着脱可能デバイス100で昼間特化型人体検出モデル1001が動いているため、その解析に用いた画像、及び、検出結果(位置、尤度)が保存される。 In S1502, the control unit 304 acquires the “current analysis result” and the image used for the analysis from the detachable device 100 and saves them in the storage unit 303 as comparison images. In this embodiment, since the daytime-specific human body detection model 1001 is moving on the detachable device 100, the image used for the analysis and the detection results (position, likelihood) are saved.

S1503では、制御部304は、シミュレーションに使用する学習モデルリスト(以下ではシミュレーション用学習モデルリストと呼ぶ)を作成する。ここで、シミュレーションとは、撮像装置110の解析部305で、学習モデルを用いて比較用画像を解析することを示す。本実施形態では、学習モデルリスト10Cから、着脱可能デバイス100の実行対象処理に選択されている学習モデルを除外したものを、シミュレーション用学習モデルリストとして生成する。本実施形態では、学習モデルリスト10Cには、昼間特化型人体検出モデル1001、及び、夜間特化型人体検出モデル1002が含まれていて、着脱可能デバイス100の実行対象処理が昼間特化型人体検出モデル1001となっている。そのため、シミュレーション用学習モデルリストには、夜間特化型人体検出モデル1002が含まれることになる。 In S1503, the control unit 304 creates a learning model list to be used for simulation (hereinafter referred to as a simulation learning model list). Here, the simulation indicates that the analysis unit 305 of the imaging device 110 analyzes the comparison image using the learning model. In the present embodiment, the simulation learning model list is generated by excluding the learning model selected as the execution target process of the detachable device 100 from the learning model list 10C. In this embodiment, the learning model list 10C includes a daytime-specific human body detection model 1001 and a nighttime-specific human body detection model 1002. A human body detection model 1001 is obtained. Therefore, the simulation learning model list includes the nighttime-specific human body detection model 1002 .

S1504では、制御部304は、シミュレーション用学習モデルリストに含まれる1つ以上の学習モデルについて全てシミュレーションが完了したか否かを判定する。完了していない場合はS1505に進み、完了した場合はS1506に進む。 In S1504, the control unit 304 determines whether or not the simulation has been completed for all of the one or more learning models included in the simulation learning model list. If not completed, the process advances to S1505; if completed, the process advances to S1506.

S1505では、制御部304は、シミュレーション用学習モデルリストに含まれる学習モデルと記憶部303に保存されている比較用画像を用いてシミュレーションを実行する。制御部304は、シミュレーションが完了したら、シミュレーション結果を学習モデルと紐づけて保存する。本実施形態では、シミュレーション結果には、解析に用いた画像、検出した人体の位置情報、及び、検出した人体の尤度(検出物体がそのものである確率、自信度)が含まれるものとする。 In S<b>1505 , the control unit 304 executes simulation using the learning model included in the simulation learning model list and the comparison image stored in the storage unit 303 . After completing the simulation, the control unit 304 stores the simulation result in association with the learning model. In this embodiment, the simulation result includes the image used for analysis, the position information of the detected human body, and the likelihood of the detected human body (probability that the detected object is itself, confidence level).

S1506では、制御部304は、記憶部303に保存されている「現在の解析結果」、および、ステップS1506で保存したシミュレーション結果にスコアをつける。本実施形態では、予め設定されていた一定の値以上の尤度で検出された人体の数をスコアとする。 In S1506, the control unit 304 scores the "current analysis results" saved in the storage unit 303 and the simulation results saved in step S1506. In this embodiment, the score is the number of human bodies detected with a likelihood equal to or higher than a predetermined value.

S1507では、制御部304は、全てのスコアを比較して、「現在の解析結果」のスコアが最高か否かを判定する。すなわち、着脱可能デバイス100が現在使用している学習モデルによる処理結果と、1つ以上のシミュレーション結果とを比較し判定する。「現在の解析結果」のスコアが最高の場合は処理を終了する。一方で、1つ以上のシミュレーション結果の何れかのスコアが最高の場合はS1508に進む。 In S1507, the control unit 304 compares all the scores and determines whether or not the "current analysis result" has the highest score. That is, the processing result of the learning model currently used by the detachable device 100 is compared with one or more simulation results for determination. If the "current analysis result" score is the highest, the process is terminated. On the other hand, if any one of the one or more simulation results has the highest score, the process proceeds to S1508.

S1508では、制御部304は、最高スコアが付けられたシミュレーション結果を出力した学習モデルを選択する。本実施形態では、夜間特化型人体検出モデル1002のシミュレーション結果のスコアが最高であったため、夜間特化型人体検出モデル1002が選択されたものとする。 In S1508, the control unit 304 selects the learning model that outputs the simulation result with the highest score. In this embodiment, it is assumed that the nighttime-specialized human body detection model 1002 is selected because the simulation result score of the nighttime-specialized human body detection model 1002 is the highest.

なお、本実施形態では、シミュレーション用学習モデルリストを作成する例を示したが、他の実施例では学習モデルリスト10Cと実行対象処理から、シミュレーションを実行する学習モデルを選択してもよい。すなわち、学習モデルリストから、シミュレーション未実施、かつ、実行対象処理でない学習モデルを選択し、撮像装置110の解析部305にてシミュレーションを実行してもよい。 In this embodiment, an example of creating a learning model list for simulation is shown, but in another embodiment, a learning model for executing a simulation may be selected from the learning model list 10C and the execution target process. That is, a learning model that has not yet been simulated and that is not an execution target process may be selected from the learning model list, and the analysis unit 305 of the imaging device 110 may execute the simulation.

また、本実施形態では、情景に最適な学習モデルの判定によって、追加する学習モデルを自動で選択する例を示したが、スケジューリング等によって最適な学習モデルを選択してもよい。または、第1処理リスト10Aが入出力装置130を介してユーザに提示され、入出力装置130からユーザの選択を受け付けてもよい。ユーザによる選択の場合は、検出対象物を変更することが可能であり、例えば、昼間特化型車両検出モデル1011を選択すると検出対象物も人体から車両に変更され、学習モデルリスト10Cは検出対象物に合わせて変更されうる。 Also, in the present embodiment, an example of automatically selecting a learning model to be added by determining the learning model that is most suitable for the scene has been described, but an optimal learning model may be selected by scheduling or the like. Alternatively, the first processing list 10A may be presented to the user via the input/output device 130, and the user's selection may be accepted from the input/output device 130. FIG. In the case of selection by the user, the detection target can be changed. For example, when the daytime specialized vehicle detection model 1011 is selected, the detection target is also changed from a human body to a vehicle. It can be changed to suit.

図16は、学習モデルの切替処理(S1404)の詳細フローチャートである。具体的には、撮像装置110が、着脱可能デバイス100の学習モデルを切り替える処理の流れの例を示している。 FIG. 16 is a detailed flowchart of the learning model switching process (S1404). Specifically, an example of the flow of processing in which the imaging device 110 switches the learning model of the detachable device 100 is shown.

S1601では、制御部304は、学習モデル切り替え中フラグを有効にする。以降、図12を用いて説明したように、学習モデル切り替え中フラグが無効になるまでの間は、撮像装置110内で実行対象処理が実行される。本実施例では、夜間特化型人体検出モデル1002が撮像装置110内で実行される。 In S1601, the control unit 304 enables the learning model switching flag. Thereafter, as described with reference to FIG. 12, the execution target process is executed within the imaging device 110 until the learning model switching flag becomes invalid. In this embodiment, a nighttime-specific human body detection model 1002 is executed within the imaging device 110 .

S1602では、制御部304は、実行対象処理として選択された学習モデルを選択する。S1603では、制御部304は、選択された学習モデルを着脱可能デバイス100に追加するために、現在の着脱可能デバイス100に格納されている学習モデルを削除する必要があるか否かを判定する。具体的には、追加する学習モデルのサイズと、既存の学習モデルのサイズの総和が、最大データサイズを超えていないか判定する。ここで、最大データサイズを超過していると判定された場合は現在の学習モデルを削除する必要があると判定しS1604に進み、超過していない場合は現在の学習モデルを削除する必要が無いと判定しS1605に進む。 In S1602, the control unit 304 selects the learning model selected as the execution target process. In S<b>1603 , the control unit 304 determines whether it is necessary to delete the learning model currently stored in the removable device 100 in order to add the selected learning model to the removable device 100 . Specifically, it is determined whether the sum of the size of the learning model to be added and the size of the existing learning model exceeds the maximum data size. Here, if it is determined that the maximum data size is exceeded, it is determined that the current learning model needs to be deleted, and the process advances to S1604.If not, there is no need to delete the current learning model. and the process proceeds to S1605.

S1604では、制御部403は、着脱可能デバイス100から学習モデルを削除する。ここでは、最大データサイズを超過していたため、昼間特化型人体検出モデル1002が削除されるものとする。 In S<b>1604 , the control unit 403 deletes the learning model from the removable device 100 . Here, since the maximum data size has been exceeded, the daytime-specific human body detection model 1002 is deleted.

S1605では、制御部403は、選択された学習モデルを着脱可能デバイス100に追加する。ここでは、夜間特化型人体検出モデル1002が着脱可能デバイス100に追加される。S1606では、制御部403は第2処理リスト10Bを更新する。S1607では、学習モデル切り替え中フラグを無効にして、処理を終了する。 In S<b>1605 , the control unit 403 adds the selected learning model to the detachable device 100 . Here, a night-specific body detection model 1002 is added to the detachable device 100 . In S1606, the control unit 403 updates the second processing list 10B. In S1607, the learning model switching flag is invalidated, and the process ends.

学習モデル切り替え中フラグが無効後は、図12のS1203はNOとなるので、着脱可能デバイス100上で解析前処理結果の画像に対する実行対象処理が実行される。本実施形態では、夜間特化型人体検出モデル1002が着脱可能デバイスで実行されるようになる。 After the learning model switching flag is disabled, S1203 in FIG. In this embodiment, the night-specific body detection model 1002 will run on the detachable device.

以上説明したように、第1実施形態によれば、着脱可能デバイスの学習モデルを切り替える間は撮像装置において解析処理を行う(オフロードする)ことにより、解析処理を中断することなく実行することが可能となる。 As described above, according to the first embodiment, by performing (offloading) the analysis processing in the imaging device while switching the learning model of the detachable device, the analysis processing can be executed without interruption. It becomes possible.

(第2実施形態)
第2実施形態では、撮像装置が実行している処理に依存して、撮像装置における解析処理を制御する形態について説明する。以下では、撮像装置110が映像配信のような優先度の高い所定の処理を行っている場合に、優先度の高い処理の実行が滞らないように、撮像装置110上での解析処理頻度を下げる例について説明する。
(Second embodiment)
In the second embodiment, a configuration will be described in which the analysis processing in the imaging device is controlled depending on the processing being executed by the imaging device. In the following, when the imaging device 110 is performing a predetermined process with high priority such as video distribution, the frequency of analysis processing on the imaging device 110 is reduced so as not to delay the execution of the high priority process. An example will be described.

なお、システムの全体構成や各装置の構成(図1~図7)および画像解析処理の動作(図8~図11)については第1実施形態と同様であるため説明を省略する。以下では、第1実施形態との主な差分である解析処理の実行処理(S805)の詳細について重点的に説明する。 The overall configuration of the system, the configuration of each device (FIGS. 1 to 7), and the operation of the image analysis processing (FIGS. 8 to 11) are the same as those of the first embodiment, so description thereof will be omitted. In the following, the details of the analysis process execution process (S805), which is the main difference from the first embodiment, will be mainly described.

<解析処理の実行処理(S805)の詳細>
図17は、第2実施形態における解析処理の実行処理(S805)の詳細フローチャートである。図17のフローチャートは例えば周期的に繰り返し実行され得る。なお、撮像装置110の制御部304は映像配信を制御しており、処理遅延が発生すると、制御部304は即時にそれを検知可能に構成されているとする。図17に示すS1201~S1208は第1実施形態と同様であるため説明を省略する。学習モデルの切り替え中の場合(S1203でYES)、S1701に進む。
<Details of Analysis Processing Execution Processing (S805)>
FIG. 17 is a detailed flowchart of the analysis process execution process (S805) in the second embodiment. The flowchart of FIG. 17 can be repeatedly executed periodically, for example. Note that the control unit 304 of the imaging device 110 controls video distribution, and when a processing delay occurs, the control unit 304 is configured to immediately detect it. Since S1201 to S1208 shown in FIG. 17 are the same as in the first embodiment, description thereof is omitted. If the learning model is being switched (YES in S1203), the process proceeds to S1701.

S1701では、撮像装置110の制御部304は、高優先度処理(ここでは映像配信処理)に処理遅延が発生しているかを判定する。高優先度処理に処理遅延が発生していない場合はS1204に進み、処理遅延が発生している場合は撮像装置において実行対象処理を実行することなく処理を終了する。 In S1701, the control unit 304 of the imaging device 110 determines whether a processing delay has occurred in high priority processing (here, video distribution processing). If no processing delay has occurred in the high-priority processing, the process proceeds to step S1204, and if processing delay has occurred, the processing ends without executing the execution target processing in the imaging apparatus.

以上説明したように、第2実施形態によれば、着脱可能デバイスの学習モデルを切り替える間は、撮像装置において実行している高優先度処理の状況に応じて撮像装置における解析処理の実行有無を制御する。すなわち、高優先度処理の処理遅延が発生する場合には、高優先度処理の実行を優先させ解析処理の実行頻度を下げる。これにより、映像配信のような優先度の高い処理への悪影響を抑止することが可能となる。 As described above, according to the second embodiment, while the learning model of the detachable device is switched, whether or not the analysis processing is to be executed in the imaging device is determined according to the status of the high-priority processing being executed in the imaging device. Control. That is, when a processing delay occurs in high-priority processing, priority is given to execution of high-priority processing, and the execution frequency of analysis processing is reduced. This makes it possible to prevent adverse effects on high-priority processing such as video distribution.

(第3実施形態)
第3実施形態では、学習モデルの切り替えに要する時間に依存して、撮像装置における解析処理を制御する形態について説明する。以下では、撮像装置110での解析処理に要する時間が長い場合に、撮像装置110での解析処理を実行しないよう制御する例について説明する。具体的には、撮像装置110での解析処理に要する時間(代替解析処理時間)が学習モデル切り替えに要する時間(学習モデル切り替え時間)よりも長い場合に、撮像装置110での解析処理を抑止する。
(Third embodiment)
In the third embodiment, a configuration will be described in which analysis processing in an imaging device is controlled depending on the time required for switching learning models. In the following, an example will be described in which control is performed so that the analysis processing in the imaging device 110 is not executed when the time required for the analysis processing in the imaging device 110 is long. Specifically, when the time required for analysis processing in the imaging device 110 (alternative analysis processing time) is longer than the time required for learning model switching (learning model switching time), the analysis processing in the imaging device 110 is suppressed. .

なお、システムの全体構成や各装置の構成(図1~図7)および画像解析処理の動作(図8~図11)については第1実施形態と同様であるため説明を省略する。以下では、第1実施形態との主な差分である解析処理の実行処理(S805)の詳細について重点的に説明する。 The overall configuration of the system, the configuration of each device (FIGS. 1 to 7), and the operation of the image analysis processing (FIGS. 8 to 11) are the same as those of the first embodiment, so description thereof will be omitted. In the following, the details of the analysis process execution process (S805), which is the main difference from the first embodiment, will be mainly described.

学習モデル切り替え時間は実行対象処理に選択された学習モデルのデータサイズと、撮像装置110と着脱可能デバイス100との間の通信速度に依存する。代替解析処理時間は撮像装置110の解析部305の処理速度と学習モデルのクロックサイクル数に依存する。これらの時間は、計算値を学習モデル情報として保持していてもよく、また、実行可能な処理を把握する処理の中で測定し、その値を保持してもよい。また、その都度計算して求めてもよい。ここでは、S901の処理において各学習モデル情報を取得し、その値から学習モデル切り替え時間、及び、代替解析処理時間を算出し、予め学習モデルと紐づく形で保持しておくものとする。 The learning model switching time depends on the data size of the learning model selected as the execution target process and the communication speed between the imaging device 110 and the detachable device 100 . The alternative analysis processing time depends on the processing speed of the analysis unit 305 of the imaging device 110 and the number of clock cycles of the learning model. For these times, calculated values may be held as learning model information, or they may be measured in the process of grasping executable processes and their values may be held. Alternatively, it may be obtained by calculating each time. Here, in the processing of S901, each learning model information is acquired, the learning model switching time and the alternative analysis processing time are calculated from the values, and stored in advance in a form associated with the learning model.

<解析処理の実行処理(S805)の詳細>
図18は、第3実施形態における解析処理の実行処理(S805)の詳細フローチャートである。図17に示すS1201~S1208は第1実施形態と同様であるため説明を省略する。学習モデルの切り替え中の場合(S1203でYES)、S1701に進む。
<Details of Analysis Processing Execution Processing (S805)>
FIG. 18 is a detailed flowchart of the analysis process execution process (S805) in the third embodiment. Since S1201 to S1208 shown in FIG. 17 are the same as in the first embodiment, description thereof is omitted. If the learning model is being switched (YES in S1203), the process proceeds to S1701.

S1801では、撮像装置110の制御部304は、学習モデル切り替え時間と代替解析処理時間を取得する。 In S1801, the control unit 304 of the imaging device 110 acquires the learning model switching time and the alternative analysis processing time.

S1802では、制御部304は、学習モデル切り替え時間より代替解析処理時間(例えば、1枚の画像フレームに対する処理時間)の方が長いか否かを判定する。代替解析処理時間の方が長い場合はS1803に進み、代替解析処理時間の方が短い場合はS1204に進む。すなわち、代替解析処理時間の方が短い場合は、撮像装置110で実行対象処理(S1204)及び後処理(S1208)を実行する。 In S1802, the control unit 304 determines whether or not the alternative analysis processing time (for example, the processing time for one image frame) is longer than the learning model switching time. If the alternative analysis processing time is longer, the process proceeds to S1803, and if the alternative analysis processing time is shorter, the process proceeds to S1204. That is, when the alternative analysis processing time is shorter, the imaging device 110 executes the execution target processing (S1204) and the post-processing (S1208).

S1803では、制御部304は、学習モデルの切り替えが完了するまで処理を中断する。 In S1803, the control unit 304 suspends processing until switching of the learning model is completed.

以上説明したように、第3実施形態によれば、学習モデル切り替え時間より代替解析処理時間の方が長い場合に、撮像装置での解析処理を実行しない。すなわち、撮像装置110での解析処理の実行が非効率的であると判定し、その結果、撮像装置での解析処理を抑止する。これにより、撮像装置での非効率的な解析処理を抑止することが出来、全体として処理の効率化が可能となる。 As described above, according to the third embodiment, when the alternative analysis processing time is longer than the learning model switching time, the imaging device does not perform the analysis processing. That is, it is determined that the execution of the analysis processing in the imaging device 110 is inefficient, and as a result, the analysis processing in the imaging device is suppressed. As a result, it is possible to prevent inefficient analysis processing in the imaging device, and to improve the efficiency of processing as a whole.

(変形例)
また、上述の実施形態において、解析処理として画像解析処理を例に挙げて説明したが、本発明は音声解析処理にも適用可能である。具体的には、悲鳴や、銃声、ガラス破壊音のような音声パターンを検知する処理に適応可能である。例えば、スペクトル解析等の種々の音声データの分析手法で音声の特徴量を抽出し、それを検出した音声パターンと比較する。そして、その一致度合いを算出することで、特定の音声パターンを検出することができる。
(Modification)
Further, in the above-described embodiment, the image analysis processing was described as an example of the analysis processing, but the present invention can also be applied to voice analysis processing. Specifically, it is applicable to processing for detecting sound patterns such as screams, gunshots, and broken glass sounds. For example, the speech feature amount is extracted by various speech data analysis techniques such as spectrum analysis, and is compared with the detected speech pattern. By calculating the degree of matching, a specific voice pattern can be detected.

また、音声解析処理を行う場合は、音声データを所定の時間分の音声データに分割し、その所定の時間分の音声データを単位として音声解析処理を行う。また、この所定の時間は、検出対象の音声パターンに応じて、適宜、異なる。そのため、着脱可能デバイス100に、検知したい音声パターンに対応する時間分ごとの音声データが入力される。そして、着脱可能デバイス100は、その入力された音声データを解析する手段や、入力された音声データを保持する手段を有する。 In addition, when performing voice analysis processing, voice data is divided into voice data for a predetermined time, and voice analysis processing is performed in units of voice data for the predetermined time. Moreover, this predetermined time varies as appropriate according to the sound pattern to be detected. Therefore, the detachable device 100 receives audio data for each hour corresponding to the audio pattern to be detected. The detachable device 100 has means for analyzing the input voice data and means for holding the input voice data.

また、上述の実施形態において、撮像装置110から入力されたデータを非一時的に格納可能な着脱可能デバイス100を例として説明した。しかし、一部の実施形態においては、撮像装置110から入力されたデータを非一時的に格納することができない着脱可能デバイス100であってもよい。つまり、着脱可能デバイス100は撮像装置110から入力されたデータに対して解析処理を行うのみで、そのデータを非一時的に記憶しなくてもよい。言い換えると、通常のSDカードのようにデータを保管する目的ではなく、解析処理のみを目的とした着脱可能デバイス100とすることも可能である。 Further, in the above-described embodiments, the detachable device 100 capable of non-temporarily storing data input from the imaging device 110 has been described as an example. However, in some embodiments, the removable device 100 may be incapable of non-temporarily storing data input from the imaging device 110 . In other words, the detachable device 100 may only perform analysis processing on the data input from the imaging device 110 and may not store the data non-temporarily. In other words, the detachable device 100 can be used only for analysis processing, not for storing data like a normal SD card.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

100 着脱可能デバイス; 110 撮像装置; 120 ネットワーク; 130 入出力装置; 401 I/F部; 402 FPGA; 403 SDコントローラ; 404 記憶部; 410 入出力制御部; 411 処理切替部; 412 演算処理部 100 detachable device; 110 imaging device; 120 network; 130 input/output device; 401 I/F section; 402 FPGA;

Claims (11)

演算処理を実行可能なデバイスを着脱可能な装着機構を有する情報処理装置であって、
前記デバイスが前記演算処理の実行に使用する学習モデルを切り替える切替手段と、
前記切替手段により前記デバイスの学習モデルの切り替えを実行している間に、前記デバイスが実行する演算処理を代替実行する処理手段と、
を有することを特徴とする情報処理装置。
An information processing apparatus having a mounting mechanism to which a device capable of executing arithmetic processing is attachable and detachable,
switching means for switching the learning model used by the device to execute the arithmetic processing;
a processing means for alternatively executing arithmetic processing executed by the device while the learning model of the device is being switched by the switching means;
An information processing device comprising:
前記演算処理とは異なる所定の処理を実行する第2の処理手段と、
前記第2の処理手段による前記所定の処理の処理遅延を検知する検知手段と、
をさらに有し、
前記処理手段は、前記検知手段により前記所定の処理の処理遅延が検知された場合、前記代替実行の頻度を下げる
ことを特徴とする請求項1に記載の情報処理装置。
a second processing means for executing a predetermined process different from the arithmetic process;
detection means for detecting a processing delay of the predetermined process by the second processing means;
further having
2. The information processing apparatus according to claim 1, wherein said processing means reduces the frequency of said alternative execution when said detection means detects a processing delay of said predetermined processing.
前記切替手段による前記デバイスの学習モデルの切り替えに要する第1の時間を取得する第1の取得手段と、
前記処理手段による前記代替実行に要する第2の時間を取得する第2の取得手段と、
をさらに有し、
前記処理手段は、前記第2の時間が前記第1の時間よりも長い場合、前記代替実行を抑止する
ことを特徴とする請求項1または2に記載の情報処理装置。
a first acquisition means for acquiring a first time required for switching the learning model of the device by the switching means;
a second obtaining means for obtaining a second time required for the alternative execution by the processing means;
further having
3. The information processing apparatus according to claim 1, wherein said processing means suppresses said alternative execution when said second time is longer than said first time.
前記演算処理は、撮像装置により撮像された画像フレームに対する画像認識処理である
ことを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
4. The information processing apparatus according to any one of claims 1 to 3, wherein the arithmetic processing is image recognition processing for an image frame captured by an imaging device.
前記撮像装置が撮像する撮像対象の環境状態を取得する第3の取得手段と、
前記環境状態に基づいて前記デバイスで使用する学習モデルを決定する決定手段と、
をさらに有し、
前記切替手段は、前記決定手段により決定された学習モデルと前記デバイスが現在使用している学習モデルとが異なる場合、前記切り替えを実行する
ことを特徴とする請求項4に記載の情報処理装置。
a third obtaining means for obtaining an environmental state of an object to be imaged by the imaging device;
determining means for determining a learning model to use with the device based on the environmental conditions;
further having
5. The information processing apparatus according to claim 4, wherein the switching means executes the switching when the learning model determined by the determining means is different from the learning model currently used by the device.
第1のデータに対して第1の学習モデルを使用した演算処理を施して得られる第1の処理結果と、前記第1のデータに対して前記第1の学習モデルとは異なる第2の学習モデルを使用した演算処理を施して得られる第2の処理結果と、の比較に基づいて前記デバイスで使用する学習モデルを決定する決定手段をさらに有する
ことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
A first processing result obtained by performing arithmetic processing using a first learning model on first data, and second learning different from the first learning model on the first data 5. The device according to any one of claims 1 to 4, further comprising determining means for determining a learning model to be used in said device based on a comparison with a second processing result obtained by performing arithmetic processing using the model. 1. The information processing apparatus according to 1.
前記第1の処理結果は前記デバイスによる前記演算処理により得られた処理結果であり、前記第2の処理結果は前記情報処理装置によるシミュレーションにより得られた処理結果である
ことを特徴とする請求項6に記載の情報処理装置。
3. The first processing result is a processing result obtained by the arithmetic processing by the device, and the second processing result is a processing result obtained by simulation by the information processing device. 7. The information processing device according to 6.
前記処理手段は、前記処理手段によって演算処理可能な1以上の処理を示す第1処理リストと、前記デバイスによって演算処理可能な1以上の処理を示す第2処理リストと、に基づいて、前記代替実行する演算処理を決定する
ことを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
The processing means performs the alternative based on a first processing list indicating one or more processes that can be processed by the processing means and a second processing list that indicates one or more processes that can be processed by the device. 8. The information processing apparatus according to any one of claims 1 to 7, wherein the arithmetic processing to be executed is determined.
前記デバイスは、再構成可能な演算処理手段を有し、
前記切替手段は、前記演算処理手段における設定データを書き替えることにより前記デバイスの学習モデルを切り替える
ことを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
The device has reconfigurable computing means,
9. The information processing apparatus according to claim 1, wherein said switching means switches learning models of said device by rewriting setting data in said arithmetic processing means.
演算処理を実行可能なデバイスを着脱可能な装着機構を有する情報処理装置の制御方法であって、
前記デバイスが前記演算処理の実行に使用する学習モデルを切り替える切替工程と、
前記切替工程により前記デバイスの学習モデルの切り替えを実行している間に、前記デバイスが実行する演算処理を代替実行する処理工程と、
を含むことを特徴とする制御方法。
A control method for an information processing apparatus having a mounting mechanism to which a device capable of executing arithmetic processing is attachable and detachable,
a switching step of switching the learning model used by the device to execute the arithmetic processing;
a processing step of alternatively executing arithmetic processing executed by the device while the learning model of the device is being switched by the switching step;
A control method comprising:
演算処理を実行可能なデバイスを着脱可能な装着機構を有するコンピュータで実行されるプログラムであって、該コンピュータを、請求項1乃至9の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program executed by a computer having a mounting mechanism to which a device capable of executing arithmetic processing is attachable and detachable, wherein the computer functions as each means of the information processing apparatus according to any one of claims 1 to 9. program to make
JP2021115146A 2021-07-12 2021-07-12 Information processing device and control method for the same Pending JP2023011341A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021115146A JP2023011341A (en) 2021-07-12 2021-07-12 Information processing device and control method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021115146A JP2023011341A (en) 2021-07-12 2021-07-12 Information processing device and control method for the same

Publications (1)

Publication Number Publication Date
JP2023011341A true JP2023011341A (en) 2023-01-24

Family

ID=85120134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021115146A Pending JP2023011341A (en) 2021-07-12 2021-07-12 Information processing device and control method for the same

Country Status (1)

Country Link
JP (1) JP2023011341A (en)

Similar Documents

Publication Publication Date Title
EP3481048B1 (en) Electronic device for recording image using multiple cameras and operating method thereof
CN112752018B (en) Image capturing apparatus, control method, and computer-readable storage medium
JP7441016B2 (en) Imaging device, information processing device, control method and program
US20220132028A1 (en) Imaging apparatus, information processing method, and recording medium
JP2021136666A (en) Imaging apparatus, device, control method and program
JP2021196753A (en) Imaging device and control method therefor and program
JP2021163998A (en) Imaging apparatus, device, control method and program
CN109218620B (en) Photographing method and device based on ambient brightness, storage medium and mobile terminal
EP4027218B1 (en) Detachable electrical device and control method thereof
JP2023011341A (en) Information processing device and control method for the same
JP7441017B2 (en) Device, imaging device, control method and program
JP7325281B2 (en) IMAGING DEVICE, CONTROL METHOD AND PROGRAM
US11974039B2 (en) Image capturing apparatus, control method, and computer-readable storage medium
US11843847B2 (en) Device, information processing apparatus, control method therefor, and computer-readable storage medium
US20230244551A1 (en) Image capturing apparatus, device, control method thereof, and non-transitory computer-readable storage medium
EP4221244A1 (en) Image capturing apparatus, control method of image capturing apparatus, and computer program
JP2021072611A (en) Imaging device, control method, and program
JP2022072874A (en) Imaging apparatus, control method thereof, and program
US11843856B2 (en) Image capturing control apparatus capable of determining malfunction of an auxiliary processing apparatus, image capturing system, image capturing control method, and non-transitory computer-readable storage medium
US11968469B2 (en) Computing apparatus, image capturing apparatus, control method, and storage medium
JP2022167153A (en) Information processing device and control method thereof
JP2023077926A (en) Information processing device, processing system, control method, and program
JP2023048984A (en) Information processing apparatus, control method, and program
JP2022164050A (en) Information processing device and control method for the same
JP2021136663A (en) Device, communication apparatus, method and program