JP2023087562A - Processing device, processing program and processing method - Google Patents

Processing device, processing program and processing method Download PDF

Info

Publication number
JP2023087562A
JP2023087562A JP2021202018A JP2021202018A JP2023087562A JP 2023087562 A JP2023087562 A JP 2023087562A JP 2021202018 A JP2021202018 A JP 2021202018A JP 2021202018 A JP2021202018 A JP 2021202018A JP 2023087562 A JP2023087562 A JP 2023087562A
Authority
JP
Japan
Prior art keywords
fluid
information
processing device
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021202018A
Other languages
Japanese (ja)
Inventor
賢吾 渡邉
Kengo Watanabe
拓也 岩井
Takuya Iwai
一幸 若杉
Kazuyuki Wakasugi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anytech
ANYTECH CO Ltd
Original Assignee
Anytech
ANYTECH CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anytech, ANYTECH CO Ltd filed Critical Anytech
Priority to JP2021202018A priority Critical patent/JP2023087562A/en
Publication of JP2023087562A publication Critical patent/JP2023087562A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a processing device, a processing program, and a processing method suitable for analyzing fluid attributes.SOLUTION: There is provided a processing device including at least one processor. The at least one processor is configured to perform the processes of: acquiring image data of a captured image captured by an imaging device included in the processing device or connected to the processing device via a communication interface; generating fluid region identification information that identifies a fluid region in which a fluid is present in the captured image based on the acquired image data; and analyzing attribute information of the fluid being present in the fluid region identified based on the fluid region identification information.SELECTED DRAWING: Figure 1

Description

本開示は、カメラによって撮像された撮像画像から流体の属性情報を解析するための処理装置、処理プログラム及び処理方法に関する。 The present disclosure relates to a processing device, a processing program, and a processing method for analyzing fluid attribute information from an image captured by a camera.

従来より、カメラ等によって撮像された画像を学習済みモデルに入力することで当該画像中に含まれる物体を識別することが知られていた。例えば、特許文献1には、カメラで撮像された画像を、所定の物体を検出するように予め学習された第1の識別器に入力することで、画像上において物体を含みかつ所定の形状を有する物体領域を検出するための物体状態識別装置が記載さ入れている。しかし、このような装置においては、形状の変化に乏しい物体の識別がされるのにとどまっていた。 2. Description of the Related Art Conventionally, it has been known to identify an object included in an image captured by a camera or the like by inputting the image into a trained model. For example, in Patent Document 1, an image captured by a camera is input to a first classifier that has been pre-learned to detect a predetermined object, so that the image contains the object and has a predetermined shape. An object state identifier is described for detecting object regions having However, such a device has only been able to identify objects with little change in shape.

特開2021-128705号公報Japanese Patent Application Laid-Open No. 2021-128705

そこで、上記のような技術を踏まえ、本開示では、様々な実施形態により、流体の属性情報の解析に適した処理装置、処理プログラム及び処理方法を提供することを目的とする。 Therefore, based on the above technology, an object of the present disclosure is to provide a processing apparatus, a processing program, and a processing method suitable for analyzing attribute information of a fluid according to various embodiments.

本開示の一態様によれば、「少なくとも一つのプロセッサを具備する処理装置であって、前記少なくとも一つのプロセッサが、前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得し、取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成し、前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する、ための処理をするように構成された、処理装置」が提供される。 According to one aspect of the present disclosure, "a processing device comprising at least one processor, the at least one processor being included in the processing device or connected to the processing device via a communication interface Acquiring image data of a captured image captured by an imaging device, generating fluid region specifying information specifying a fluid region in which fluid exists in the captured image based on the acquired image data, and specifying the fluid region. A processing device configured to perform processing for analyzing attribute information of the fluid present in the fluid region specified based on the information is provided.

本開示の一態様によれば、「処理装置に具備された少なくとも一つのプロセッサにより実行されることにより、前記少なくとも一つのプロセッサを、前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得し、取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成し、前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する、ように機能させる処理プログラム」が提供される。 According to one aspect of the present disclosure, "by being executed by at least one processor provided in a processing device, the at least one processor is included in the processing device or via a communication interface to the processing device. acquiring image data of a captured image captured by an imaging device connected to the device, and generating fluid region specifying information specifying a fluid region in which the fluid exists in the captured image based on the acquired image data; A processing program that analyzes the attribute information of the fluid existing in the fluid region specified based on the fluid region specifying information” is provided.

本開示の一態様によれば、「処理装置に具備された少なくとも一つのプロセッサにより実行される処理方法であって、前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得する段階と、取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成する段階と、前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する段階と、を含む処理方法」が提供される。 According to one aspect of the present disclosure, "a processing method executed by at least one processor provided in a processing device, the processing method being included in the processing device or connected to the processing device via a communication interface Acquiring image data of a captured image captured by an imaging device; generating fluid region specifying information specifying a fluid region in which fluid exists in the captured image based on the acquired image data; and analyzing the attribute information of the fluid present in the fluid region identified based on the fluid region identification information.

本開示によれば、流体の属性情報の解析に適した処理装置、処理プログラム及び処理方法を提供することができる。 According to the present disclosure, it is possible to provide a processing device, a processing program, and a processing method suitable for analyzing fluid attribute information.

なお、上記効果は説明の便宜のための例示的なものであるにすぎず、限定的なものではない。上記効果に加えて、又は上記効果に代えて、本開示中に記載されたいかなる効果や当業者であれば明らかな効果を奏することも可能である。 It should be noted that the above effect is merely an example for convenience of explanation, and is not limiting. In addition to or instead of the above effects, any effects described in the present disclosure or effects obvious to those skilled in the art can be achieved.

図1は、本開示の一実施形態に係る処理システム1の使用の例を示す図である。FIG. 1 is a diagram illustrating an example of use of a processing system 1 according to one embodiment of the present disclosure. 図2は、本開示の一実施形態に係る処理システム1の概略図である。FIG. 2 is a schematic diagram of a processing system 1 according to one embodiment of the present disclosure. 図3は、本開示の一実施形態に係る処理装置100の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of the processing device 100 according to one embodiment of the present disclosure. 図4は、本開示の一実施形態に係る処理装置100のメモリ113に記憶される画像テーブルを概念的に示す図である。FIG. 4 is a diagram conceptually showing an image table stored in the memory 113 of the processing device 100 according to an embodiment of the present disclosure. 図5は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。FIG. 5 is a diagram showing a processing flow performed by the processing device 100 according to one embodiment of the present disclosure. 図6は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。FIG. 6 is a diagram illustrating a processing flow for generating a trained model according to an embodiment of the present disclosure; 図7は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。FIG. 7 is a diagram illustrating a processing flow for generating a trained model according to an embodiment of the present disclosure; 図8は、本開示の実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。FIG. 8 is a diagram showing a processing flow for generating a trained model according to an embodiment of the present disclosure. 図9Aは、本開示の一実施形態に係る処理装置100で処理される撮像画像の例を示す図である。FIG. 9A is a diagram showing an example of a captured image processed by the processing device 100 according to an embodiment of the present disclosure. 図9Bは、本開示の一実施形態に係る処理装置100で処理されるセグメンテーション画像の例を示す図である。FIG. 9B is a diagram illustrating an example of a segmentation image processed by the processing device 100 according to an embodiment of the present disclosure. 図10は、本開示の一実施形態に係る処理装置100から出力される画面の例を示す図である。FIG. 10 is a diagram showing an example of a screen output from the processing device 100 according to an embodiment of the present disclosure.

添付図面を参照して本開示の様々な実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。 Various embodiments of the present disclosure are described with reference to the accompanying drawings. In addition, the same reference numerals are attached to common components in the drawings.

1.処理システム1の概要
本開示に係る処理システム1は、例えばカメラ等の撮像装置で撮像された撮像画像中において所定の被写体が存在する領域を特定し、当該領域に存在する被写体の属性情報を解析するために用いられる。当該処理システム1に利用される被写体としては、外部からの圧力が加わることによって容易に変形しうる流体が挙げられる。このような流体の例としては、気体、液体、気体及び液体が混合されたもの及び気体又は液体に微量の固体が混合されたもの等が挙げられる。このような流体は、一般的には粘度を生じ、外側からの力によって動きを生じ、他の物体との境界が一定ではない。
1. Overview of processing system 1 The processing system 1 according to the present disclosure identifies an area where a predetermined subject exists in an image captured by an imaging device such as a camera, and analyzes the attribute information of the subject existing in the area. used to A subject used in the processing system 1 is a fluid that can be easily deformed by external pressure. Examples of such fluids include gases, liquids, mixtures of gases and liquids, and mixtures of gases or liquids with trace amounts of solids. Such fluids are generally viscous, move due to external forces, and have irregular boundaries with other bodies.

図1は、本開示の一実施形態に係る処理システム1の使用の例を示す図である。具体的には、図1は、処理システム1において利用される流体が被写体として撮像された撮像画像の例を示す図である。図1によると、床面11、床面11に置かれたマグネティックスターラー12、マグネティックスターラー12上に載置されたコップ13、コップ13の内部に注がれた流体14等が被写体として用いられている。そして、これら被写体をカメラ等で撮像された撮像画像を、本開示に係る処理システム1に適用することによって、撮像画像中において流体14が存在する領域が特定され、当該領域に存在する流体14の属性情報が解析される。 FIG. 1 is a diagram illustrating an example of use of a processing system 1 according to one embodiment of the present disclosure. Specifically, FIG. 1 is a diagram showing an example of a captured image in which a fluid used in the processing system 1 is captured as a subject. According to FIG. 1, a floor 11, a magnetic stirrer 12 placed on the floor 11, a cup 13 placed on the magnetic stirrer 12, a fluid 14 poured into the cup 13, etc. are used as subjects. there is Then, by applying a captured image obtained by capturing the subject with a camera or the like to the processing system 1 according to the present disclosure, a region where the fluid 14 exists in the captured image is specified, and the fluid 14 existing in the region is specified. Attribute information is parsed.

なお、本開示において流体とは、上記のとおり気体、液体、気体及び液体が混合されたもの及び気体又は液体に微量の固体が混合されたもの等が挙げられる。このような流体の例としては、水、飲料、ゼリー、化粧品、医薬品、食品、セメント、泡、食用、燃料用、産業用などのオイル等が挙げられる。 In the present disclosure, the fluid includes gas, liquid, mixture of gas and liquid, and mixture of gas or liquid and a small amount of solid, as described above. Examples of such fluids include water, beverages, jellies, cosmetics, pharmaceuticals, foodstuffs, cement, foams, oils for edible, fuel, industrial and the like purposes.

また、本開示において属性情報とは、流体の種類、特性、性質等を示す情報であればいずれでもよい。典型的には、流体の分類情報(種類)、粘度、流速、質量、圧力、温度又はそれらの組み合わせが属性情報の例として挙げられる。処理システム1はこれらの属性情報の全てを解析する必要はなく、少なくともいずれか一つが解析できれば良い。 In addition, in the present disclosure, attribute information may be any information that indicates the type, characteristics, properties, etc. of a fluid. Typical examples of attribute information include fluid classification information (kind), viscosity, flow velocity, mass, pressure, temperature, or a combination thereof. It is not necessary for the processing system 1 to analyze all of these pieces of attribute information, and it is sufficient if at least one of them can be analyzed.

また、本開示において撮像画像としては、一又は複数の動画であってもよいし一又は複数の静止画であってもよい。このような撮像画像を得るために、カメラ等の撮像装置が用いられるが、その動作の一例としては、電源ボタンが押下されると、撮像装置によるスルー画像の取り込みを行い、取り込まれたスルー画像が撮像装置のディスプレイに表示される。その後、使用者によって撮像ボタンが押下されると、一又は複数の静止画像が撮像装置によって撮像され、撮像された画像をディスプレイに表示する。又は、使用者によって撮像ボタンが押下されると、動画の撮像が開始され、その間撮像装置で撮像されている画像がディスプレイに表示される。そして、再度撮像ボタンが押下されると動画の撮像が終了される。このように、一連の動作において、スルー画像や静止画、動画など様々な画像が撮像装置によって撮像され、ディスプレイに表示されるが、撮像画像はこれらのうちの特定の画像のみを意味するのではなく、撮像装置で撮像された画像の全てを含みうる。さらに、本開示において、画像データは撮像画像を所定のデータ形式で示したデータのことを意味するに過ぎず、特定のデータ形式で示されたデータのみを指すものではない。 In the present disclosure, the captured image may be one or more moving images or one or more still images. In order to obtain such a captured image, an imaging device such as a camera is used. As an example of its operation, when a power button is pressed, a through image is captured by the imaging device, and the captured through image is captured. is displayed on the display of the imaging device. After that, when the user presses the imaging button, one or more still images are captured by the imaging device, and the captured images are displayed on the display. Alternatively, when the user presses the imaging button, the imaging of a moving image is started, and the image captured by the imaging device is displayed on the display during that time. Then, when the imaging button is pressed again, imaging of the moving image is terminated. In this way, in a series of operations, various images such as through images, still images, and moving images are captured by the imaging device and displayed on the display. It may include all of the images captured by the image capture device. Furthermore, in the present disclosure, image data simply means data representing a captured image in a predetermined data format, and does not only refer to data represented in a specific data format.

2.処理システム1の構成
図2は、本開示の一実施形態に係る処理システム1の概略図である。図2によれば、処理システム1は、処理装置100と、当該処理装置100に有線又は無線ネットワークを介して通信可能に接続された撮像装置200とを含む。処理装置100は、使用者による操作入力を受け付けて、撮像装置200による撮像を制御する。また、処理装置100は、撮像装置200によって撮像された撮像画像を処理して、撮像画像中に流体が存在する領域を特定し、当該流体の属性情報を解析する。
2. Configuration of Processing System 1 FIG. 2 is a schematic diagram of the processing system 1 according to one embodiment of the present disclosure. According to FIG. 2, the processing system 1 includes a processing device 100 and an imaging device 200 communicably connected to the processing device 100 via a wired or wireless network. The processing device 100 receives an operation input by the user and controls imaging by the imaging device 200 . In addition, the processing device 100 processes the captured image captured by the imaging device 200, identifies a region in which the fluid exists in the captured image, and analyzes the attribute information of the fluid.

このような撮像装置200としては典型的にはカメラが挙げられるが、図2に示すように必ずしも処理装置100と有線又は無線ネットワークを介して接続されている必要はない。例えば、処理装置100の中の構成要素として備えられた撮像装置200であっても本開示に係る処理を適切に実行することが可能である。また、撮像装置200は、それ単独で存在している必要はなく他の装置と組み合わされて存在してもよい。例えば、流体、流体を含む製品又は流体を材料とする製品を製造するための製造ライン装置中に当該撮像装置200を配置させることも可能である。 Such an imaging device 200 is typically a camera, but it does not necessarily have to be connected to the processing device 100 via a wired or wireless network as shown in FIG. For example, even the imaging device 200 provided as a component in the processing device 100 can appropriately execute the processing according to the present disclosure. Also, the imaging device 200 does not need to exist alone, and may exist in combination with other devices. For example, the imaging device 200 can be placed in a manufacturing line apparatus for manufacturing fluids, products containing fluids, or products made from fluids.

図3は、本開示の一実施形態に係る処理装置100の構成を示すブロック図である。図3によると、処理装置100は、出力インターフェイス111、プロセッサ112、メモリ113、入力インターフェイス115及び通信インターフェイス114を含む。これらの各構成要素は、互いに、制御ライン及びデータラインを介して互いに電気的に接続される。なお、処理装置100は、図3に示す構成要素のすべてを備える必要はなく、一部を省略して構成することも可能であるし、他の構成要素を加えることも可能である。例えば、処理システム1は、各構成要素を駆動するためのバッテリ等を含むことが可能である。 FIG. 3 is a block diagram showing the configuration of the processing device 100 according to one embodiment of the present disclosure. According to FIG. 3, processing device 100 includes output interface 111 , processor 112 , memory 113 , input interface 115 and communication interface 114 . Each of these components are electrically connected to each other via control lines and data lines. Note that the processing apparatus 100 does not need to include all of the components shown in FIG. 3, and may be configured by omitting some or adding other components. For example, processing system 1 may include a battery or the like for driving each component.

また、このような処理装置100としては、ラップトップPC、デスクトップPC、スマートフォン、タブレット等が利用可能である。ただし、これらに限らず他の装置であっても好適に処理装置100として利用することが可能である。また、処理装置100は、全ての処理を処理装置100自体が実行する必要はなく、一部の処理を他の装置と一体となって実行することも可能である。例えば、学習済みアルゴリズムによる解析処理などをクラウドサーバ装置において共同して実行することも可能であり、このような場合は当該装置を含めて処理装置100ということもある。 A laptop PC, a desktop PC, a smart phone, a tablet, or the like can be used as such a processing device 100 . However, not limited to these, other devices can be suitably used as the processing device 100 . Moreover, the processing device 100 does not need to execute all the processes by itself, and it is possible for the processing device 100 to execute some of the processes together with other devices. For example, it is possible to jointly execute analysis processing using a learned algorithm in a cloud server device.

まず、プロセッサ112は、メモリ113に記憶されたプログラムに基づいて処理装置100の他の構成要素の制御を行う制御部として機能する。プロセッサ112は、メモリ113に記憶されたプログラムに基づいて、撮像装置200から撮像画像の画像データを取得し、流体の属性情報の解析に係る処理を制御する。具体的には、プロセッサ112は、処理装置100に含まれるか通信インターフェイス114を介して接続された撮像装置200において撮像された撮像画像の画像データを取得する処理、学習済み流体領域特定モデルに撮像画像の画像データを入力する処理、取得された画像データに基づいて撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成する処理、流体領域特定情報に基づいて流体領域に存在する流体の分類情報を解析する処理、解析された分類情報に基づいて流体領域に存在する流体の特性情報を解析する処理などを、メモリ113に記憶されたプログラムに基づいて実行する。プロセッサ112は、主に一又は複数のプロセッサで構成されてもよく、このようなプロセッサとしては、CPU、GPUやFPGAなどを組み合わせてもよい。 First, the processor 112 functions as a control unit that controls other components of the processing device 100 based on programs stored in the memory 113 . The processor 112 acquires image data of a captured image from the imaging device 200 based on a program stored in the memory 113, and controls processing related to analysis of fluid attribute information. Specifically, the processor 112 performs processing for acquiring image data of a captured image captured by the imaging device 200 included in the processing device 100 or connected via the communication interface 114, and performs processing for acquiring image data of a captured image to a learned fluid region identification model. A process of inputting image data of an image, a process of generating fluid area specifying information specifying a fluid area in which a fluid exists in a captured image based on the acquired image data, and a process of specifying a fluid area based on the fluid area specifying information. Based on the program stored in the memory 113, a process of analyzing the classification information of the existing fluid, a process of analyzing the characteristic information of the fluid existing in the fluid region based on the analyzed classification information, and the like are executed. The processor 112 may be mainly composed of one or more processors, and such processors may be a combination of CPU, GPU, FPGA, and the like.

メモリ113は、RAM、ROM、不揮発性メモリ、HDD等から構成され、記憶部として機能する。メモリ113は、本実施形態に係る処理装置100の様々な制御のための指示命令をプログラムとして記憶する。具体的には、メモリ113は、処理装置100に含まれるか通信インターフェイス114を介して接続された撮像装置200において撮像された撮像画像の画像データを取得する処理、学習済み流体領域特定モデルに撮像画像の画像データを入力する処理、取得された画像データに基づいて撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成する処理、流体領域特定情報に基づいて流体領域に存在する流体の分類情報を解析する処理、解析された分類情報に基づいて流体領域に存在する流体の特性情報を解析する処理などプロセッサ112が実行するためのプログラムを記憶する。また、メモリ113は、当該プログラムのほかに、撮像装置200で撮像された撮像画像の画像データや、当該画像を管理するための画像テーブルなどを記憶する。また、メモリ113は、撮像画像の解析に用いられる学習済みセグメンテーション判定モデル、学習済み特性解析モデル、学習済み流体分類モデル、学習済み特性解析モデル等の各学習済みモデルに係るプログラムを記憶する。 The memory 113 is composed of RAM, ROM, non-volatile memory, HDD, etc., and functions as a storage unit. The memory 113 stores instruction commands for various controls of the processing device 100 according to this embodiment as programs. Specifically, the memory 113 performs processing for acquiring image data of a captured image captured by the imaging device 200 included in the processing device 100 or connected via the communication interface 114, and performs processing for acquiring image data for a learned fluid region identification model. A process of inputting image data of an image, a process of generating fluid area specifying information specifying a fluid area in which a fluid exists in a captured image based on the acquired image data, and a process of specifying a fluid area based on the fluid area specifying information. It stores programs for the processor 112 to execute, such as processing for analyzing classification information of existing fluids and processing for analyzing characteristic information of fluids existing in the fluid region based on the analyzed classification information. In addition to the program, the memory 113 stores image data of images captured by the imaging device 200, an image table for managing the images, and the like. The memory 113 also stores programs related to each learned model such as a learned segmentation determination model, a learned characteristic analysis model, a learned fluid classification model, and a learned characteristic analysis model, which are used for analysis of captured images.

入力インターフェイス115は、処理装置100に対する使用者の指示入力を受け付ける入力部として機能する。入力インターフェイス115の一例としては、撮像装置200において被写体を撮像するための指示を送信する「撮像ボタン」、各種選択を行うための「確定ボタン」、前画面に戻ったり入力した確定操作をキャンセルするための「戻る/キャンセルボタン」、出力インターフェイス111を介してディスプレイに表示されたポインタ等の移動をするための十字キーボタン、処理装置100の電源のオンオフをするためのオン・オフキー、様々な文字を入力するための文字入力キーボタン等の物理キーボタンが挙げられる。なお、入力インターフェイス115には、出力インターフェイス111として機能するディスプレイに重畳して設けられ、ディスプレイの表示座標系に対応する入力座標系を有するタッチパネルを用いることも可能である。この場合、ディスプレイに上記物理キーに対応するアイコンが表示され、タッチパネルを介して使用者が指示入力を行うことで、各アイコンに対する選択が行われる。タッチパネルによる使用者の指示入力の検出方式は、静電容量式、抵抗膜式などいかなる方式であってもよい。入力インターフェイス115は、常に処理装置100に物理的に備えられる必要はなく、有線や無線ネットワークを介して必要に応じて接続されてもよい。 The input interface 115 functions as an input unit that receives a user's instruction input to the processing device 100 . An example of the input interface 115 is an "imaging button" for transmitting an instruction to capture an image of a subject in the imaging device 200, a "confirmation button" for making various selections, and a button for returning to the previous screen or canceling an input confirmation operation. a "return/cancel button" to move the pointer or the like displayed on the display via the output interface 111, an on/off key to turn on/off the power of the processing device 100, various characters physical key buttons such as character input key buttons for inputting . For the input interface 115, it is also possible to use a touch panel that is superimposed on the display functioning as the output interface 111 and has an input coordinate system corresponding to the display coordinate system of the display. In this case, icons corresponding to the physical keys are displayed on the display, and the user inputs instructions via the touch panel to select each icon. Any method such as a capacitive method, a resistive film method, or the like may be used to detect a user's instruction input through the touch panel. The input interface 115 does not always have to be physically provided in the processing device 100, and may be connected as necessary via a wired or wireless network.

出力インターフェイス111は、撮像装置200によって撮像された撮像画像、処理装置100で処理されたセグメンテーション画像、解析された流体の属性情報等を出力するための出力部として機能する。出力インターフェイス111の一例としては、液晶パネル、有機ELディスプレイ又はプラズマディスプレイ等から構成されるディスプレイが挙げられる。しかし、必ずしも処理装置100そのものにディスプレイが備えられている必要はない。例えば、有線又は無線ネットワークを介して処理装置100と接続可能なディスプレイ等と接続するためのインターフェイスが、当該ディスプレイ等に表示データを出力する出力インターフェイス111として機能することも可能である。 The output interface 111 functions as an output unit for outputting the captured image captured by the imaging device 200, the segmentation image processed by the processing device 100, the attribute information of the analyzed fluid, and the like. An example of the output interface 111 is a display composed of a liquid crystal panel, an organic EL display, a plasma display, or the like. However, the processing device 100 itself does not necessarily have to have a display. For example, an interface for connecting a display or the like that can be connected to the processing device 100 via a wired or wireless network can function as the output interface 111 that outputs display data to the display or the like.

通信インターフェイス114は、有線又は無線ネットワークを介して接続された撮像装置200に対して撮像開始などに関連する各種コマンドや撮像装置200で撮像された撮像画像の画像データを送受信するための通信部として機能する。通信インターフェイス114の一例としては、USB、SCSIなどの有線通信用コネクタや、無線LAN、Bluetooth(登録商標)、赤外線などの無線通信用送受信デバイスや、プリント実装基板やフレキシブル実装基板用の各種接続端子など、様々なものが挙げられる。 The communication interface 114 serves as a communication unit for transmitting/receiving various commands related to start of imaging and image data of an image captured by the imaging device 200 to/from the imaging device 200 connected via a wired or wireless network. Function. Examples of the communication interface 114 include connectors for wired communication such as USB and SCSI, transmitting/receiving devices for wireless communication such as wireless LAN, Bluetooth (registered trademark) and infrared rays, and various connection terminals for printed mounting boards and flexible mounting boards. and so on.

また、具体的に図示はしていないものの、撮像装置200は、カメラ、光源、プロセッサ、メモリ、表示パネル、入力インターフェイス及び通信インターフェイス等を含む。これらの各構成要素は、互いに、制御ライン及びデータラインを介して互いに電気的に接続される。なお、撮像装置200は、これらの構成要素のすべてを備える必要はなく、一部を省略して構成することも可能であるし、他の構成要素を加えることも可能である。 Although not specifically illustrated, the imaging device 200 includes a camera, light source, processor, memory, display panel, input interface, communication interface, and the like. Each of these components are electrically connected to each other via control lines and data lines. Note that the imaging apparatus 200 does not need to include all of these components, and may be configured by omitting some or adding other components.

撮像装置200のうち、カメラは、被写体であるに反射した反射光を検出して被写体画像を生成する撮像部として機能する。カメラは、その光を検出するために、一例としてCMOSイメージセンサと、所望の機能を実現するためのレンズ系と駆動系を備える。イメージセンサは、CMOSイメージセンサに限らず、CCDイメージセンサ等の他のセンサを用いることも可能である。 In the imaging device 200, the camera functions as an imaging unit that detects reflected light reflected from a subject and generates a subject image. A camera includes, for example, a CMOS image sensor to detect the light, and a lens system and a drive system to achieve desired functions. The image sensor is not limited to a CMOS image sensor, and other sensors such as a CCD image sensor can also be used.

光源は、処理装置100又は撮像装置200からの指示によって駆動され、口腔内に光を照射するための光源部として機能する。光源は、一又は複数の光源を含む。本実施形態においては、光源は、一又は複数のLEDから構成され、各LEDから所定の周波数帯域を有する光が口腔方向に照射される。光源には、一例としては、紫外光帯域、可視光帯域、赤外光帯域の中から所望の帯域を有する光、又はそれらの組み合わせが用いられる。 The light source is driven by an instruction from the processing device 100 or the imaging device 200 and functions as a light source unit for irradiating light into the oral cavity. A light source includes one or more light sources. In this embodiment, the light source is composed of one or a plurality of LEDs, and each LED emits light having a predetermined frequency band toward the oral cavity. For the light source, for example, light having a desired band from among an ultraviolet light band, a visible light band, and an infrared light band, or a combination thereof is used.

プロセッサは、メモリに記憶されたプログラムに基づいて撮像装置200の他の構成要素の制御を行う制御部として機能する。具体的は、プロセッサは、メモリに記憶されたプログラムに基づいて、カメラの駆動、光源の駆動を制御するとともに、カメラによって撮像された撮像画像や撮像における撮像条件等のメモリへの記憶を制御する。また、プロセッサは、メモリに記憶された撮像画像の表示パネルへの出力や、処理装置100への送信を制御する。プロセッサは、主に一又は複数のプロセッサにより構成され、このようなプロセッサとしてはCPUが一例として用いられる。 The processor functions as a control unit that controls other components of the imaging device 200 based on programs stored in the memory. Specifically, the processor controls the driving of the camera and the driving of the light source based on the program stored in the memory, and also controls the storage in the memory of the image captured by the camera and the imaging conditions in the imaging. . The processor also controls the output of the captured image stored in the memory to the display panel and the transmission to the processing device 100 . A processor is mainly composed of one or more processors, and a CPU is used as an example of such a processor.

メモリは、RAM、ROM、不揮発性メモリ、HDD等から構成され、記憶部として機能する。メモリは、撮像装置200の様々な制御のための指示命令をプログラムとして記憶する。また、メモリは、当該プログラムのほかに、カメラで撮像された撮像画像などを記憶する。 The memory is composed of RAM, ROM, nonvolatile memory, HDD, etc., and functions as a storage unit. The memory stores instruction commands for various controls of the imaging device 200 as programs. In addition to the program, the memory also stores captured images captured by the camera.

表示パネルは、撮像装置200によって撮像された被写体画像を表示するための表示部として機能する。表示パネルは、液晶パネルによって構成されるが、液晶パネルに限らず、有機ELディスプレイやプラズマディスプレイ等から構成されていてもよい。 The display panel functions as a display unit for displaying the subject image captured by the imaging device 200 . The display panel is composed of a liquid crystal panel, but it is not limited to the liquid crystal panel, and may be composed of an organic EL display, a plasma display, or the like.

入力インターフェイスは、処理装置100及び撮像装置200に対する使用者の指示入力を受け付ける入力部として機能する。入力インターフェイス210の一例としては、撮像装置200による録画の開始・終了を指示するための「撮像ボタン」、撮像装置200の電源のオンオフをするための「電源ボタン」、各種選択を行うための「確定ボタン」、前画面に戻ったり入力した確定操作をキャンセルするための「戻る/キャンセルボタン」、表示パネルに表示されたアイコン等の移動をするための十字キーボタン等の物理キーボタンが挙げられる。なお、これらの各種ボタン・キーは、物理的に用意されたものであってもよいし、表示パネルにアイコンとして表示され、表示パネルに重畳して入力インターフェイスとして配置されたタッチパネル等を用いて選択可能にしたものであってもよい。タッチパネルによる使用者の指示入力の検出方式は、静電容量式、抵抗膜式などいかなる方式であってもよい。 The input interface functions as an input unit that receives a user's instruction input to the processing device 100 and the imaging device 200 . Examples of the input interface 210 include an “imaging button” for instructing the start/end of recording by the imaging device 200, a “power button” for turning on/off the power of the imaging device 200, and a “power button” for making various selections. Confirmation button", "Return/Cancel button" for returning to the previous screen or canceling the input confirmation operation, and physical key buttons such as a cross key button for moving icons displayed on the display panel. . These various buttons and keys may be physically prepared, or may be displayed as icons on the display panel and selected using a touch panel or the like superimposed on the display panel and arranged as an input interface. It may be made possible. Any method such as a capacitive method, a resistive film method, or the like may be used to detect a user's instruction input through the touch panel.

通信インターフェイスは、撮像装置200及び/又は他の装置と情報の送受信を行うための通信部として機能する。通信インターフェイスの一例としては、USB、SCSIなどの有線通信用コネクタや、無線LAN、Bluetooth(登録商標)、赤外線などの無線通信用送受信デバイスや、プリント実装基板やフレキシブル実装基板用の各種接続端子など、様々なものが挙げられる。 The communication interface functions as a communication unit for transmitting and receiving information to and from the imaging device 200 and/or other devices. Examples of communication interfaces include connectors for wired communication such as USB and SCSI, transmitting/receiving devices for wireless communication such as wireless LAN, Bluetooth (registered trademark) and infrared rays, and various connection terminals for printed mounting boards and flexible mounting boards. , various ones.

さらに、処理システム1は、図示はしないものの、各種センサ装置を含むことが可能である。このようなセンサ装置としては、被写体に対して加えられる圧力、被写体に対して加えられる重力、被写体の表面状態、被写体が置かれている周囲の温度等が測定可能なものであればいずれでもよい。具体的には、被写体の表面状態を解析する画像センサ、被写体の周辺温度を測定するための温度センサ、被写体の内部の温度を測定するための温度センサ、圧力センサ、距離センサ又はこれらの組み合わせ等が挙げられる。センサ装置は、センサ装置自体が単独で存在し、測定された出力値を処理装置100に送信するようにしてもよい。また、センサ装置は処理装置100又は撮像装置200の構成要素の一つとしてその内部に備えられ、測定された出力値を処理装置100のプロセッサ112で処理可能に送信するようにしてもよい。 Further, the processing system 1 can include various sensor devices, not shown. Any such sensor device may be used as long as it can measure the pressure applied to the subject, the gravity applied to the subject, the surface condition of the subject, the ambient temperature where the subject is placed, and the like. . Specifically, an image sensor that analyzes the surface condition of a subject, a temperature sensor that measures the ambient temperature of the subject, a temperature sensor that measures the internal temperature of the subject, a pressure sensor, a distance sensor, or a combination thereof. is mentioned. The sensor device may exist by itself and transmit the measured output values to the processing device 100 . Alternatively, the sensor device may be provided inside the processing device 100 or the imaging device 200 as one of the constituent elements, and may transmit the measured output values so that they can be processed by the processor 112 of the processing device 100 .

3.処理装置100のメモリ113に記憶される情報
図4は、本開示の一実施形態に係る処理装置100のメモリ113に記憶される画像テーブルを概念的に示す図である。画像テーブルに記憶される情報は、処理装置100のプロセッサ112の処理の進行に応じて随時更新して記憶される。
3. Information Stored in Memory 113 of Processing Device 100 FIG. 4 is a diagram conceptually showing an image table stored in the memory 113 of the processing device 100 according to an embodiment of the present disclosure. The information stored in the image table is updated and stored as needed according to the progress of the processing of the processor 112 of the processing device 100 .

図4によれば、画像テーブルには、画像ID情報に対応付けて、画像データ、撮像条件情報、撮像環境情報、セグメンテーション画像データ、分類情報、特性情報等が記憶される。「画像ID情報」は、撮像装置200で撮像された各撮像画像を特定するための情報である。画像ID情報は、撮像装置200において新たな撮像画像が撮像されるごと、又は処理装置100で新たな撮像画像が取得されるごとに生成されえる情報である。「画像データ」は、撮像装置200で撮像された撮像画像の画像データそのものの情報又はその格納先を特定する情報である。「撮像条件情報」は、撮像装置200において撮像画像が撮像された時の撮像条件を示す情報である。このような撮像条件情報としては、撮像画像を撮像したときの絞り値、シャッタースピード、ISO感度、露出、ホワイトバランス又はそれらの組み合わせが挙げられる。当該撮像条件情報は、撮像装置200において撮像時の条件が記憶され、撮像装置200から撮像画像の画像データを受信する際に一緒に取得される。なお、撮像装置200では、このような撮像条件は自動で設定されることも可能であるし、処理装置100又は撮像装置200において受け付けられた使用者や他の使用者からの指示入力に応じて設定されることも可能である。「撮像環境情報」は、撮像装置200において撮像画像が撮像された時の被写体自体又は被写周辺の環境に関する情報である。このような撮像環境情報としては、各種センサ装置で測定された出力値であり、圧力(気圧)、被写体に対して加えられる重力、被写体の表面状態、被写体が置かれている周囲の温度、被写体までの距離の情報が挙げられる。撮像環境情報は、撮像装置200で撮像指示が受け付けられるのに同期して各種センサにも測定指示が受け付けられ、各種センサにおいて測定される。そして、測定された出力値は、通信インターフェイス114を介して処理装置100に取得される。 According to FIG. 4, the image table stores image data, imaging condition information, imaging environment information, segmentation image data, classification information, property information, etc. in association with the image ID information. “Image ID information” is information for specifying each captured image captured by the imaging device 200 . The image ID information is information that can be generated each time a new captured image is captured by the imaging device 200 or each time a new captured image is acquired by the processing device 100 . The “image data” is information of the image data itself of the captured image captured by the imaging device 200 or information specifying the storage location thereof. “Imaging condition information” is information indicating imaging conditions when the captured image is captured by the imaging device 200 . Such imaging condition information includes aperture value, shutter speed, ISO sensitivity, exposure, white balance, or a combination thereof when the captured image is captured. The imaging condition information is stored in the imaging device 200 with the conditions at the time of imaging, and is acquired together with the image data of the captured image from the imaging device 200 . In addition, in the image capturing apparatus 200, such image capturing conditions can be set automatically, or according to an instruction input from the user or another user accepted by the processing apparatus 100 or the image capturing apparatus 200. can also be set. The “imaging environment information” is information related to the subject itself or the environment around the subject when the captured image was captured by the imaging device 200 . Such imaging environment information includes output values measured by various sensor devices, such as pressure (atmospheric pressure), gravity applied to the subject, surface condition of the subject, ambient temperature where the subject is placed, subject Information on the distance to The imaging environment information is measured by various sensors, in which measurement instructions are received by various sensors in synchronism with reception of imaging instructions by the imaging apparatus 200 . The measured output values are then acquired by the processing device 100 via the communication interface 114 .

「セグメンテーション画像データ」は取得された撮像画像の画像データを学習済みセグメンテーション判定モデルに入力した結果得られる画像データである。一例としては、流体が存在する流体領域、流体領域以外のその他の領域、及びこれらの境界となる境界領域とをセグメンテーション(区画)した結果に色情報を付加して、各領域を識別可能にした画像データである。「分類情報」は、流体の属性情報の一つであり、撮像画像の画像データとセグメンテーション画像データを学習済み流体分類モデルに入力した結果得られる流体の種類を示す情報である。このような流体の種類としては、水、飲料、ゼリー、化粧品、医薬品、食品、セメント、泡、食用、燃料用、産業用などのオイル等が挙げられる。「特性情報」は、流体の属性情報の一つであり、撮像画像の画像データ、セグメンテーション画像データ及び分類情報を学習済み特性解析モデルに入力した結果得られる流体の特性を示す情報である。このような流体の特性情報としては、粘度、流速、質量、圧力、温度等が挙げられる。 "Segmentation image data" is image data obtained as a result of inputting image data of an acquired captured image into a trained segmentation determination model. As an example, each region can be identified by adding color information to the result of segmentation (partitioning) of the fluid region where the fluid exists, other regions other than the fluid region, and the boundary region that serves as a boundary between these regions. image data. The “classification information” is one of the attribute information of the fluid, and is information indicating the type of fluid obtained as a result of inputting the image data of the captured image and the segmentation image data into the learned fluid classification model. Such fluid types include water, beverages, jellies, cosmetics, pharmaceuticals, foods, cements, foams, oils for edible, fuel, industrial, and the like purposes. The “property information” is one type of attribute information of the fluid, and is information indicating the characteristics of the fluid obtained as a result of inputting the image data of the captured image, the segmentation image data, and the classification information into the learned characteristic analysis model. Such fluid characteristic information includes viscosity, flow velocity, mass, pressure, temperature, and the like.

4.処理装置100で実行される処理フロー
図5は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図5は、処理装置100において撮像装置200から撮像画像が取得され属性情報の解析を行いその結果を出力するまでの処理フローを示す図である。当該処理フローは、主に処理装置100のプロセッサ112がメモリ113に記憶されたプログラムを読み出して実行することにより行われる。
4. Processing Flow Executed by Processing Device 100 FIG. 5 is a diagram showing a processing flow executed by the processing device 100 according to an embodiment of the present disclosure. Specifically, FIG. 5 is a diagram showing a processing flow from acquisition of a captured image from the imaging device 200 in the processing device 100 to analyzing attribute information and outputting the result. The processing flow is mainly performed by the processor 112 of the processing device 100 reading and executing a program stored in the memory 113 .

図5によると、当該処理フローの実行の前に、プロセッサ112は、撮像装置200において撮像された被写体の撮像画像の画像データを、通信インターフェイス114を介して受信し、メモリ113の画像テーブルに画像ID情報と対応付けて記憶する。また、このとき、撮像装置200における撮像と同期して測定された各種センサ装置から測定された出力値を、通信インターフェイス114を介して受信し、メモリの画像テーブルに画像ID情報と対応付けて記憶する。さらに、撮像装置200において撮像画像が撮像されたときの撮像条件情報を、通信インターフェイス114を介して受信し、メモリの画像テーブルに画像ID情報と対応付けて記憶する。 According to FIG. 5 , prior to execution of the processing flow, the processor 112 receives image data of the captured image of the subject captured by the imaging device 200 via the communication interface 114 and stores the image in the image table of the memory 113 . Stored in association with ID information. Also, at this time, output values measured from various sensor devices that are measured in synchronization with imaging by the imaging device 200 are received via the communication interface 114 and stored in the image table of the memory in association with the image ID information. do. Further, the imaging condition information when the imaging device 200 captures the captured image is received via the communication interface 114 and stored in the image table of the memory in association with the image ID information.

ここで、図9Aは、本開示の一実施形態に係る処理装置100で処理される撮像画像の例を示す図である。具体的には、図9Aは、撮像装置200で撮像された撮像画像の一例を示す図である。図9Aによると、床面11、床面11に置かれたマグネティックスターラー12、マグネティックスターラー12上に載置されたコップ13、コップ13の内部に注がれた流体14等が被写体として撮像されている。すなわち、この撮像画像中には、流体領域として流体14が存在している領域があり、その他の領域として流体以外の床面11、マグネティックスターラー12及びコップ13等が存在している領域がある。以下においては、このような撮像画像を処理に用いる場合について説明する。 Here, FIG. 9A is a diagram showing an example of a captured image processed by the processing device 100 according to an embodiment of the present disclosure. Specifically, FIG. 9A is a diagram showing an example of a captured image captured by the imaging device 200. FIG. According to FIG. 9A, a floor surface 11, a magnetic stirrer 12 placed on the floor surface 11, a cup 13 placed on the magnetic stirrer 12, a fluid 14 poured into the inside of the cup 13, and the like are imaged as subjects. there is That is, in this captured image, there is an area where the fluid 14 exists as the fluid area, and other areas where the floor surface 11, the magnetic stirrer 12, the cup 13, etc. other than the fluid exist. In the following, a case where such captured images are used for processing will be described.

再び図5に戻り、プロセッサ112は、メモリ113の画像テーブルを参照して未処理の画像データがある場合、当該画像データを読み出す(S111)。プロセッサ112は、読み出された画像データを学習済みセグメンテーション判定モデル(当該学習済みモデルの作成については後述する。)に入力して流体のセグメンテーション処理を行う(S112)。このとき学習済みセグメンテーション判定モデルには画像データのみが入力されているが、これに加えて撮像画像の画像ID情報に対応付けられた撮像条件情報、撮像環境情報又はそれらの組み合わせもさらに用いることが可能である。 Returning to FIG. 5 again, the processor 112 refers to the image table in the memory 113 and, if there is unprocessed image data, reads the image data (S111). The processor 112 inputs the read image data to a learned segmentation determination model (creation of the learned model will be described later) to perform fluid segmentation processing (S112). At this time, only image data is input to the trained segmentation determination model, but in addition to this, imaging condition information, imaging environment information, or a combination thereof associated with the image ID information of the captured image can also be used. It is possible.

ここで、図9Bは、本開示の一実施形態に係る処理装置100で処理されるセグメンテーション画像の例を示す図である。具体的には、図5のS112において学習済みセグメンテーション判定モデルに撮像画像の画像データが入力された結果得られるセグメンテーション画像データの例を示す図である。図9Bによると、撮像画像中には、図9Aに示したとおり、流体領域として流体14が存在している領域と、その他の領域として流体以外の床面11、マグネティックスターラー12及びコップ13等が存在している領域とが含まれている。このような撮像画像の画像データが学習済みセグメンテーション判定モデルに入力されることにより、流体14が存在していた領域に対応して流体領域15、流体14以外のものが存在した領域であるその他の領域(床面11、マグネティックスターラー12及びコップ13等の領域)に対応してその他領域16、流体領域15とその他領域16との境界を示す境界領域17が識別可能に特定されている。このように、図9に示されたセグメンテーション画像データによれば、画素ごとに流体領域、その他領域及び境界領域のいずれかが特定され、画素ごとに特定された領域に対応した色情報を付加して、各領域が識別可能に特定されている。なお、色情報による識別は、出力インターフェイス111を介してディスプレイ等に出力したときに使用者等が識別可能にするために用いているにすぎない。そのため、ここでは画素ごと(座標位置ごと)にいずれの領域であるのかが特定されていればよく、当然に他の情報による識別をしてもよいし、色情報等をさらに付加しなくてもよい。例えば、グレースケールで識別させてもよいし、特定のコードを付して識別してもよい。 Here, FIG. 9B is a diagram showing an example of a segmentation image processed by the processing device 100 according to an embodiment of the present disclosure. Specifically, it is a diagram showing an example of segmentation image data obtained as a result of inputting the image data of the captured image to the trained segmentation determination model in S112 of FIG. According to FIG. 9B, as shown in FIG. 9A, in the captured image, the area where the fluid 14 exists as the fluid area, and the floor surface 11 other than the fluid as other areas, the magnetic stirrer 12, the cup 13, etc. The existing area is included. By inputting the image data of such a captured image into the trained segmentation determination model, the fluid region 15 corresponding to the region where the fluid 14 existed, and the other region where something other than the fluid 14 existed Other areas 16 and boundary areas 17 indicating boundaries between the fluid area 15 and the other areas 16 are identifiably specified corresponding to the areas (areas such as the floor surface 11, the magnetic stirrer 12 and the cup 13). Thus, according to the segmentation image data shown in FIG. 9, any one of the fluid region, the other region, and the boundary region is specified for each pixel, and color information corresponding to the specified region is added for each pixel. , each region is identifiably specified. It should be noted that the identification by color information is only used to enable the user to identify the image when it is output to a display or the like via the output interface 111 . Therefore, it suffices here for each pixel (each coordinate position) to specify which region it is, and of course other information may be used for identification, and color information and the like may not be added. good. For example, it may be identified by gray scale, or may be identified by adding a specific code.

再び図5に戻り、プロセッサ112は、処理された結果得られた撮像画像のセグメンテーション画像データをメモリ113の画像テーブルに、処理された撮像画像の画像データの画像ID情報に対応付けて記憶する(S113)。そして、プロセッサ112は、得られたセグメンテーション画像データに基づいて、流体領域が存在するか否かを判断する(S114)。その結果、流体領域が存在すると判断された場合には、プロセッサ112は、撮像画像の画像データとS113で記憶されたセグメンテーション画像データを学習済み流体分類モデル(当該学習済みモデルの作成については後述する。)に入力して、流体の分類処理を行う(S115)。このとき学習済み流体分類モデルには画像データ及びセグメンテーション画像データが入力されているが、これに加えて撮像画像の画像ID情報に対応付けられた撮像条件情報、撮像環境情報又はそれらの組み合わせを用いてもよい。 Returning to FIG. 5 again, the processor 112 stores the segmentation image data of the captured image obtained as a result of processing in the image table of the memory 113 in association with the image ID information of the image data of the processed captured image ( S113). Processor 112 then determines whether a fluid region exists based on the obtained segmentation image data (S114). As a result, if it is determined that a fluid region exists, the processor 112 combines the image data of the captured image and the segmentation image data stored in S113 with a learned fluid classification model (creation of the learned model will be described later). ) to perform fluid classification processing (S115). At this time, image data and segmentation image data are input to the learned fluid classification model. may

次に、プロセッサ112は、セグメンテーション画像データに基づいて特定される流体領域に存在する流体に関して、学習済み流体分類モデルに入力された結果解析された分類情報(水、飲料、ゼリー、化粧品、医薬品、食品、セメント、泡、食用、燃料用、産業用などのオイル等)を、メモリ113の画像テーブルに、処理された撮像画像の画像データの画像ID情報に対応付けて記憶する(S116)。そして、プロセッサ112は、撮像画像の画像データ、S113で記憶されたセグメンテーション画像データ、及びS116で記憶された分類情報を学習済み特性解析モデル(当該学習済みモデルの作成については後述する。)に入力して、流体の特性解析処理を行う(S117)。このとき学習済み流体分類モデルには画像データ、セグメンテーション画像データ及び分類情報が入力されているが、これに加えて撮像画像の画像ID情報に対応付けられた撮像条件情報、撮像環境情報又はそれらの組み合わせを用いてもよい。 Next, the processor 112 classifies classification information (water, beverages, jelly, cosmetics, medicines, food, cement, foam, oil for food, fuel, industrial use, etc.) are stored in the image table of the memory 113 in association with the image ID information of the image data of the processed captured image (S116). Then, the processor 112 inputs the image data of the captured image, the segmentation image data stored in S113, and the classification information stored in S116 to a learned characteristic analysis model (creation of the learned model will be described later). Then, fluid characteristic analysis processing is performed (S117). At this time, image data, segmentation image data, and classification information are input to the learned fluid classification model. Combinations may also be used.

次に、プロセッサ112は、セグメンテーション画像データに基づいて特定される流体領域に存在する流体に関して、学習済み特性解析モデルに入力された結果解析された特性情報(粘度、流速、質量、圧力、温度等)を、メモリ113の画像テーブルに、処理された撮像画像の画像データの画像ID情報に対応付けて記憶する(S118)。そして、プロセッサ112は、入力インターフェイス115を介して使用者からの要求を受け付けて、当該要求に基づいて出力インターフェイス111を介してその解析結果をディスプレイ等に出力する(S119)。以上により、当該処理フローは終了する。 Next, the processor 112 obtains characteristic information (viscosity, flow velocity, mass, pressure, temperature, etc.) analyzed as a result of input to the learned characteristic analysis model with respect to the fluid existing in the fluid region specified based on the segmentation image data. ) is stored in the image table of the memory 113 in association with the image ID information of the image data of the processed captured image (S118). Then, the processor 112 receives a request from the user through the input interface 115, and outputs the analysis result to a display or the like through the output interface 111 based on the request (S119). With the above, the processing flow ends.

ここで、図10は、本開示の一実施形態に係る処理装置100から出力される画面の例を示す図である。具体的には、図10は、図5のS119において出力インターフェイス111を介してディスプレイに出力された解析結果画像の例を示す図である。図10によると、ディスプレイの左上に、撮像装置200で撮像された撮像画像22が表示されている。また、当該撮像画像22の右隣に、各領域の位置関係を比較可能に、セグメンテーション画像データを再現したセグメンテーション画像21が表示されている。これによって、使用者は、セグメンテーション画像データに基づいて特定される流体領域、その他領域及び境界領域をそれぞれ視覚的に識別することが可能である。 Here, FIG. 10 is a diagram showing an example of a screen output from the processing device 100 according to an embodiment of the present disclosure. Specifically, FIG. 10 is a diagram showing an example of the analysis result image output to the display via the output interface 111 in S119 of FIG. According to FIG. 10, the captured image 22 captured by the imaging device 200 is displayed on the upper left of the display. A segmentation image 21 that reproduces the segmentation image data is displayed to the right of the captured image 22 so that the positional relationship of each region can be compared. This allows the user to visually identify the fluid region, the other region and the boundary region identified based on the segmentation image data.

また、撮像画像22の下部には撮像環境表示エリア25が表示される。撮像環境表示エリア25には、一例としては、メモリ113の画像テーブルに撮像環境情報として記憶された圧力(気圧)及び温度が含まれるが、当然に他の撮像環境情報が含まれてもよい。また、セグメンテーション画像21の下部には、セグメンテーションされた流体の分類情報23、流体の特性情報(流速情報24a及び粘度情報24b)が表示される。これにより、各学習済みモデルによって解析された流体の属性情報を、使用者は視覚的に認識可能になる。なお、ここに表示されえる特定情報は、流速や粘度に限らず、流体自体の温度など、他の特性情報であってもよい。 Also, an imaging environment display area 25 is displayed below the captured image 22 . The imaging environment display area 25 includes, as an example, the pressure (atmospheric pressure) and temperature stored as the imaging environment information in the image table of the memory 113, but may naturally include other imaging environment information. Further, below the segmentation image 21, segmented fluid classification information 23 and fluid characteristic information (flow velocity information 24a and viscosity information 24b) are displayed. This allows the user to visually recognize the fluid attribute information analyzed by each learned model. The specific information that can be displayed here is not limited to the flow velocity and viscosity, and may be other characteristic information such as the temperature of the fluid itself.

なお、図5において、S111で読み出される撮像画像の画像データに関して、図5において特段の画像処理をすることは明示していないが、所望に応じて所定の前処理を行うことも可能である。このような前処理としては、ハイパスフィルタやローパスフィルタを含むバンドパスフィルタ、平均化フィルタ、ガウシアンフィルタ、ガボールフィルタ、キャニーフィルタ、ソーベルフィルタ、ラプラシアンフィルタ、メディアンフィルタ、バイラテラルフィルタなどのフィルタ処理、トリミング処理、曇り除去処理、超解像処理及びこれらの組み合わせから、高精細化、領域抽出、ノイズ除去、エッジ強調、画像補正、画像変換などの目的に応じて選択される。このように、前処理を実行することによって、セグメンテーションや流体の分類、特性解析において解析精度を向上させることが可能となる。 Although FIG. 5 does not explicitly show that the image data of the captured image read out in S111 is subjected to special image processing, it is possible to perform predetermined preprocessing as desired. Such preprocessing includes filter processing such as bandpass filters including high-pass filters and low-pass filters, averaging filters, Gaussian filters, Gabor filters, Canny filters, Sobel filters, Laplacian filters, median filters, bilateral filters, etc. Trimming processing, defogging processing, super-resolution processing, and combinations thereof are selected according to purposes such as high definition, area extraction, noise removal, edge enhancement, image correction, and image conversion. By executing preprocessing in this way, it is possible to improve analysis accuracy in segmentation, fluid classification, and characteristic analysis.

また、図5のS112の流体のセグメンテーション処理、S115の流体の分類処理、及びS117の流体の特性解析処理において、入力される画像データ等に加えて、さらに撮像条件情報や撮像環境情報を用いて処理するようにしてもよい。これらの情報を併せて用いることによってその処理精度をさらに向上させることが可能である。例えば、流体の流速は、一般的にその流体の周囲温度又は流体内部の温度の影響を受ける。そのため、高温の場合は流体の移動や形態の変化が激しく、低温の場合は比較的穏やかであるため、セグメンテーション精度が影響を受けることがある。また、同じ条件下では異なる流速を有する流体でありながら、一方は高温化で撮像されたものであり、他方は低温下で撮像されたものである場合、同様の流速になることがある。そのような場合、流体の分類処理や特性解析処理において温度の影響を受けることがある。そこで、所定の温度を閾値として高温条件下で撮像した画像を用いて学習を行った学習済みモデルと低温条件下で撮像した画像を用いて学習を行った学習済みモデルをそれぞれ用意する。そして、入力される撮像画像が撮像されたときの撮像環境情報に基づいて、閾値よりも高温か低温かに応じて入力する学習済みモデルを選択するようにしてもよい。また、撮像環境情報や撮像条件情報は、各学習済みモデルの学習の際に入力されるパラメータとしても用いることができる。例えば、上記の温度の例では、流体の特性に温度が少なからず影響することがあるため、当該温度情報も一緒に学習することによって、学習済みモデルからその特性の解析結果を出力する際に温度を考慮した結果を出力することが可能となる。 Further, in the fluid segmentation process of S112, the fluid classification process of S115, and the fluid characteristic analysis process of S117 of FIG. may be processed. By using these pieces of information together, it is possible to further improve the processing accuracy. For example, the flow velocity of a fluid is generally affected by the ambient temperature of the fluid or the temperature inside the fluid. As a result, fluid movement and morphology changes are severe at high temperatures and relatively mild at low temperatures, which can affect segmentation accuracy. Also, fluids having different flow velocities under the same conditions may have similar flow velocities if one is imaged at a high temperature and the other is imaged at a low temperature. In such cases, the fluid classification and characterization processes may be affected by temperature. Therefore, a trained model trained using images captured under high-temperature conditions and a trained model trained using images captured under low-temperature conditions using a predetermined temperature as a threshold are prepared. Then, a learned model to be input may be selected depending on whether the temperature is higher or lower than the threshold based on the imaging environment information when the input captured image was captured. In addition, the imaging environment information and the imaging condition information can also be used as parameters that are input when learning each trained model. For example, in the above temperature example, since the temperature can have a considerable effect on the properties of the fluid, by learning the temperature information together with the temperature It is possible to output the result considering

また、図5のS111で読み出される撮像画像の画像データは1枚の画像であったり、複数の静止画像群であったり、複数の画像群から構成される動画像であってもよいが、特に複数枚の静止画像群や動画像を用いるのが好ましい。これらの場合、読み出された各画像データ又は一部の画像データについて図5に記載された各処理を行い流体領域のセグメンテーション処理を行うことで、特性情報として流速情報が得られるだけでなく、流体領域の経時的な移動情報や変化情報を得ることが可能である。特に、流体の特性情報として流速情報を解析する場合、時間的に異なる複数枚の静止画や一定期間において撮像された動画像を用いるのが良い。これによって、流体の経時的な変化をより正確に反映することが可能となり、解析精度の向上が可能である。さらに、このとき、プロセッサ112は、各画像データから得られた流速情報や粘度情報等の特性情報に対して、平均、最大値、最小値などの数値を算出することが可能である。このように、より正確な特性情報を得ることが可能である。 The image data of the captured image read in S111 of FIG. 5 may be a single image, a group of still images, or a moving image composed of a group of images. It is preferable to use a plurality of still image groups or moving images. In these cases, by performing each process described in FIG. 5 on each read image data or a part of the image data and performing the segmentation process of the fluid region, not only the flow velocity information can be obtained as the characteristic information, It is possible to obtain temporal movement information and change information of the fluid region. In particular, when analyzing flow velocity information as fluid characteristic information, it is preferable to use a plurality of temporally different still images or moving images captured during a certain period of time. This makes it possible to more accurately reflect changes in the fluid over time and improve analysis accuracy. Furthermore, at this time, the processor 112 can calculate numerical values such as averages, maximum values, and minimum values for characteristic information such as flow velocity information and viscosity information obtained from each image data. Thus, it is possible to obtain more accurate characteristic information.

5.各学習済みモデルの生成に係る処理フロー
図6は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図6は、図5のS112の流体のセグメンテーション処理に用いられる学習済みセグメンテーション判定モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ112によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。
5. Processing Flow for Generating Each Trained Model FIG. 6 is a diagram showing a processing flow for generating a trained model according to an embodiment of the present disclosure. Specifically, FIG. 6 is a diagram showing a processing flow relating to generation of a learned segmentation determination model used for the fluid segmentation processing of S112 of FIG. The processing flow may be executed by the processor 112 of the processing device 100 or by a processor of another processing device.

図6によると、プロセッサは、例えば撮像装置200によって撮像された撮像画像の学習用画像データを取得するステップを実行する(S211)。次に、プロセッサは、取得された学習用画像データに対してセグメンテーション処理を行い、正解ラベル情報を付与する処理ステップを実行する(S212)。そして、プロセッサは付与された正解ラベル情報を学習用セグメンテーション情報として学習用画像データに対応付けて記憶するステップを実行する(S213)。 According to FIG. 6, the processor executes a step of acquiring learning image data of a captured image captured by, for example, the imaging device 200 (S211). Next, the processor executes a processing step of performing segmentation processing on the acquired image data for learning and adding correct label information (S212). Then, the processor executes a step of storing the assigned correct label information as learning segmentation information in association with the learning image data (S213).

学習用画像データとそれに対応付けられた学習用セグメンテーション情報がそれぞれ得られると、プロセッサは、それらを用いてセグメンテーションパターンの機械学習を行うステップを実行する(S214)。当該機械学習は、一例として、ニューロンを組み合わせたニューラルネットワークに対して、これら情報の組を与え、ニューラルネットワークからの出力が正解ラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済みセグメンテーション判定モデルを取得するステップが実行される(S215)。取得された学習済みセグメンテーション判定モデルは、処理装置100のメモリ113や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶される。 When the training image data and the learning segmentation information associated therewith are obtained, the processor executes a step of performing machine learning of segmentation patterns using them (S214). As an example, the machine learning provides a set of information to a neural network that combines neurons, and learns while adjusting the parameters of each neuron so that the output from the neural network is the same as the correct label information. is performed by repeating Then, a step of obtaining a trained segmentation determination model is executed (S215). The acquired learned segmentation determination model is stored in the memory 113 of the processing device 100 or another processing device connected to the processing device 100 via a wired or wireless network.

なお、図6においては、学習用画像データとして撮像装置200により撮像された撮像画像を用い、当該学習用画像データに対して例えば使用者によりセグメンテーション処理がなされる場合について説明した。しかし、これに限らず、あらかじめ流体が存在する流体領域が特定されたCG(コンピュータグラフィックス)画像を作成し、学習用画像データ及び学習用セグメンテーション情報として利用することも可能である。 In addition, in FIG. 6, the case where the captured image captured by the imaging device 200 is used as the learning image data, and the segmentation processing is performed on the learning image data by the user, for example, has been described. However, without being limited to this, it is also possible to create a CG (computer graphics) image in which a fluid region in which fluid exists is specified in advance and use it as learning image data and learning segmentation information.

また、図6においては、学習用画像データと学習用セグメンテーション情報とを用いて学習する場合について説明したが、例えば撮像装置200で撮像画像が撮像されたときの撮像条件情報や、撮像されたときに各種センサ装置で測定された出力値である撮像環境情報をさらに用いて学習させてもよい。 In FIG. 6, the case of learning using image data for learning and segmentation information for learning has been described. In addition, the imaging environment information, which is output values measured by various sensor devices, may be used for learning.

図7は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図7は、図5のS115の流体の分類処理に用いられる学習済み流体分類モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ112によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。 FIG. 7 is a diagram illustrating a processing flow for generating a trained model according to an embodiment of the present disclosure; Specifically, FIG. 7 is a diagram showing a processing flow relating to generation of a learned fluid classification model used for the fluid classification processing of S115 of FIG. The processing flow may be executed by the processor 112 of the processing device 100 or by a processor of another processing device.

図7によると、プロセッサは、例えば撮像装置200によって撮像された撮像画像の学習用画像データと、当該画像データを用いて流体領域がセグメンテーションされた学習用セグメンテーション情報を取得するステップを実行する(S311)。次に、プロセッサは、取得された学習用画像データ中に含まれる流体領域に存在する流体を種類に分類する処理を行い、正解ラベル情報を付与する処理ステップを実行する(S312)。そして、プロセッサは付与された正解ラベル情報を学習用分類情報として学習用画像データ等に対応付けて記憶するステップを実行する(S313)。 According to FIG. 7, the processor executes a step of acquiring learning image data of an image captured by the imaging device 200, for example, and learning segmentation information in which the fluid region is segmented using the image data (S311). ). Next, the processor performs a process of classifying the fluid present in the fluid region included in the obtained learning image data into types, and executes a processing step of assigning correct label information (S312). Then, the processor executes a step of storing the assigned correct label information as learning classification information in association with learning image data or the like (S313).

学習用画像データ等とそれに対応付けられた学習用分類情報がそれぞれ得られると、プロセッサは、それらを用いて分類パターンの機械学習を行うステップを実行する(S314)。当該機械学習は、一例として、ニューロンを組み合わせたニューラルネットワークに対して、これら情報の組を与え、ニューラルネットワークからの出力が正解ラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済み流体分類モデルを取得するステップが実行される(S315)。取得された学習済み流体分類モデルは、処理装置100のメモリ113や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶される。 When the learning image data and the like and the learning classification information associated therewith are obtained, the processor executes a step of performing machine learning of classification patterns using them (S314). As an example, the machine learning provides a set of information to a neural network that combines neurons, and learns while adjusting the parameters of each neuron so that the output from the neural network is the same as the correct label information. is performed by repeating A step of obtaining a trained fluid classification model is then performed (S315). The acquired learned fluid classification model is stored in the memory 113 of the processing device 100 or another processing device connected to the processing device 100 via a wired or wireless network.

なお、図7においては、学習用画像データとして撮像装置200により撮像された撮像画像を用い、使用者により入力された当該撮像画像に含まれる流体の種類を正解ラベル情報として用いる場合について説明した。しかし、これに限らず、あらかじめ流体が存在する流体領域とその流体の種類が特定されたCG(コンピュータグラフィックス)画像を作成し、学習用画像データ、学習用セグメンテーション情報及び学習用分類情報として使用することも可能である。 Note that FIG. 7 describes a case where an image captured by the imaging device 200 is used as the learning image data, and the type of fluid included in the image input by the user is used as the correct label information. However, not limited to this, create a CG (computer graphics) image in which the fluid region where the fluid exists and the type of the fluid are specified in advance, and use it as image data for learning, segmentation information for learning, and classification information for learning It is also possible to

また、図7においては、学習用画像データ、学習用セグメンテーション情報及び学習用分類情報を用いて学習する場合について説明したが、例えば撮像装置200で撮像画像が撮像されたときの撮像条件情報や、撮像されたときに各種センサ装置で測定された出力値である撮像環境情報をさらに用いて学習させてもよい。これらの情報を用いることで、さらに○○○。 In FIG. 7, the case of learning using image data for learning, segmentation information for learning, and classification information for learning has been described. The imaging environment information, which is output values measured by various sensor devices when an image is captured, may also be used for learning. By using these information, further ○○○.

図8は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図8は、図5のS117の流体の特性解析処理に用いられる学習済み特性解析モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ112によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。 FIG. 8 is a diagram illustrating a processing flow for generating a trained model according to an embodiment of the present disclosure; Specifically, FIG. 8 is a diagram showing a processing flow relating to generation of a learned characteristic analysis model used in the fluid characteristic analysis processing of S117 of FIG. The processing flow may be executed by the processor 112 of the processing device 100 or by a processor of another processing device.

図8によると、プロセッサは、例えば撮像装置200によって撮像された撮像画像の学習用画像データと、当該画像データを用いて流体領域がセグメンテーションされた学習用セグメンテーション情報と、流体領域に存在する流体の種類が特定された分類情報とを取得するステップを実行する(S411)。次に、プロセッサは、取得された学習用画像データ中の流体領域に存在する流体の特性を解析する処理を行い、正解ラベル情報を付与する処理ステップを実行する(S412)。そして、プロセッサは付与された正解ラベル情報を学習用特性情報として学習用画像データ等に対応付けて記憶するステップを実行する(S413)。 According to FIG. 8, the processor includes, for example, learning image data of a captured image captured by the imaging device 200, learning segmentation information obtained by segmenting a fluid region using the image data, and information about the fluid existing in the fluid region. A step of acquiring classification information whose type is specified is executed (S411). Next, the processor performs a process of analyzing the properties of the fluid present in the fluid region in the obtained learning image data, and executes a process step of adding correct label information (S412). Then, the processor executes a step of storing the assigned correct label information as learning characteristic information in association with learning image data or the like (S413).

学習用画像データ等とそれに対応付けられた学習用特性情報がそれぞれ得られると、プロセッサは、それらを用いて特性解析パターンの機械学習を行うステップを実行する(S414)。当該機械学習は、一例として、ニューロンを組み合わせたニューラルネットワークに対して、これら情報の組を与え、ニューラルネットワークからの出力が正解ラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済み特性解析モデルを取得するステップが実行される(S415)。取得された学習済み特性解析モデルは、処理装置100のメモリ113や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶される。 When the learning image data and the associated learning characteristic information are obtained, the processor executes a step of performing machine learning of the characteristic analysis pattern using them (S414). As an example, the machine learning provides a set of information to a neural network that combines neurons, and learns while adjusting the parameters of each neuron so that the output from the neural network is the same as the correct label information. is performed by repeating Then, a step of acquiring a learned characteristic analysis model is performed (S415). The acquired learned characteristic analysis model is stored in the memory 113 of the processing device 100 or another processing device connected to the processing device 100 via a wired or wireless network.

ここで、流体の挙動を記述する方程式として下記式1で示されるナビエストーク方程式が用いられる。逆に言えば、流体であるためには、上記学習済み特性解析モデル等を用いて解析された各特性情報が、下記式1で示されるナビエストーク方程式を満たす必要がある。 Here, the Navier-Stoke equation shown in Equation 1 below is used as an equation that describes the behavior of the fluid. Conversely, in order to be a fluid, each piece of characteristic information analyzed using the learned characteristic analysis model or the like needs to satisfy the Navier-Stoke equation shown in Equation 1 below.

Figure 2023087562000002
Figure 2023087562000002

そのため、学習済み特性解析モデルの学習においては、上記式1で示されるように上記ナビエストーク方程式を適用した損失関数を用いて、学習済み特性解析モデルにより解析された特性情報と正解ラベル情報として用いられた特性情報との間の損失(L)を最小にするように各ニューロンのパラメータが調整される。つまり、学習済み特性解析モデルから出力された各特性情報について、上記式1のナビエストーク方程式に入力されたときに当該方程式を満たす値となるように、各ニューロンのパラメータを調整する。 Therefore, in the learning of the learned characteristic analysis model, the loss function to which the Navierstoke equation is applied as shown in Equation 1 is used as the characteristic information analyzed by the learned characteristic analysis model and the correct label information. The parameters of each neuron are adjusted to minimize the loss (L n ) between the characteristic information used. That is, for each piece of characteristic information output from the learned characteristic analysis model, the parameter of each neuron is adjusted so that when input to the Navier-Stoke equation of Equation 1 above, it becomes a value that satisfies the equation.

なお、上記式1において、圧力(p)、加速度場(g)及び流体密度(ρ)は固定値として無視することが可能である。また、速度ベクトル(υ)としては、学習済み特性解析モデルから得られた流速情報が、動粘性係数(ν)としては、学習済み特性解析モデルから得られた粘度情報が用いられる。 In Equation 1 above, pressure (p), acceleration field (g), and fluid density (ρ) can be ignored as fixed values. Flow velocity information obtained from the learned characteristic analysis model is used as the velocity vector (ν), and viscosity information obtained from the learned characteristic analysis model is used as the kinematic viscosity coefficient (ν).

また、図8においては、学習用画像データとして撮像装置200により撮像された撮像画像を用い、使用者により測定された流体の特性を正解ラベル情報として用いる場合について説明した。しかし、これに限らず、あらかじめ流体が存在する流体領域、その流体の種類及び特性が特定されたCG(コンピュータグラフィックス)画像を作成し、学習用画像データ、学習用セグメンテーション情報、学習用分類情報及び学習用特性情報として使用することも可能である。 In addition, in FIG. 8, a case has been described in which an image captured by the imaging device 200 is used as the image data for learning, and the characteristics of the fluid measured by the user are used as the correct label information. However, not limited to this, a CG (computer graphics) image is created in which the fluid region where the fluid exists, the type and characteristics of the fluid are specified in advance, and the image data for learning, segmentation information for learning, and classification information for learning And it can also be used as characteristic information for learning.

また、図6~8においては、学習用画像データ、学習用セグメンテーション情報、学習用分類情報及び学習用特性情報を用いて学習する場合について説明したが、例えば撮像装置200で撮像画像が撮像されたときの撮像条件情報や、撮像されたときに各種センサ装置で測定された出力値である撮像環境情報をさらに用いて学習させてもよい。これらの情報を用いることで、学習済みモデルからその特性の解析結果を出力する際に撮像環境情報や撮像条件情報をさらに考慮した結果を出力することが可能となる。 Further, in FIGS. 6 to 8, the case of learning using image data for learning, segmentation information for learning, classification information for learning, and characteristic information for learning has been described. The imaging condition information at the time and the imaging environment information, which is output values measured by various sensor devices at the time of imaging, may be further used for learning. By using these pieces of information, it becomes possible to output the result of further consideration of the imaging environment information and the imaging condition information when outputting the analysis result of the characteristics from the trained model.

さらに、図6~図8で説明した各学習済みモデルは、ニューラルネットワークを用いて生成した。しかし、これらに限らず、ニアレストネイバー法、決定木、回帰木、ランダムフォレスト等の機械学習を用いて生成することも可能である。さらに、図6~図8で説明した各学習済みモデルは、ニューラルネットワークを用いて生成した。具体的には、FCN、Mask R-CNN等の機械学習モデルが挙げられる。しかし、これらに限られず、画像を入力可能な機械学習モデルやピクセルデータを出力可能な機械学習モデルであればいずれでも使用可能である。 Furthermore, each trained model described in FIGS. 6 to 8 was generated using a neural network. However, not limited to these, it is also possible to generate using machine learning such as the nearest neighbor method, decision tree, regression tree, random forest, or the like. Furthermore, each trained model described in FIGS. 6 to 8 was generated using a neural network. Specific examples include machine learning models such as FCN and Mask R-CNN. However, the present invention is not limited to these, and any machine learning model capable of inputting images or capable of outputting pixel data can be used.

以上、本開示の一実施形態においては、流体の属性情報の解析に適した処理装置、処理プログラム及び処理方法を提供することができる。 As described above, in one embodiment of the present disclosure, it is possible to provide a processing device, a processing program, and a processing method suitable for analyzing attribute information of a fluid.

本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能である。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、処理装置やサーバ装置を含む各種のコンピュータに実行させることが可能である。 The processes and procedures described herein can be implemented not only by those explicitly described in the embodiments, but also by software, hardware, or a combination thereof. Specifically, the processes and procedures described herein are implemented by implementing logic corresponding to the processes in media such as integrated circuits, volatile memories, non-volatile memories, magnetic disks, and optical storage. be done. Further, the processes and procedures described in this specification can be implemented as computer programs and executed by various computers including processing devices and server devices.

本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明される各種情報が単一のメモリや記憶部に格納される旨が説明されたとしても、そのような情報は、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェア及びハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。 Although the processes and procedures described herein are described as being performed by a single device, software, component, module, such processes or procedures may be performed by multiple devices, multiple software, It may be performed by multiple components and/or multiple modules. In addition, even if it is explained that various information described in this specification is stored in a single memory or storage unit, such information may be stored in a plurality of memories provided in a single device or It can be distributed and stored in a plurality of memories arranged in a plurality of devices. Furthermore, the software and hardware elements described herein may be implemented by integrating them into fewer components or by decomposing them into more components.

1 処理システム
100 処理装置
200 撮像装置

1 processing system 100 processing device 200 imaging device

Claims (11)

少なくとも一つのプロセッサを具備する処理装置であって、
前記少なくとも一つのプロセッサが、
前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得し、
取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成し、
前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する、
ための処理をするように構成された、処理装置。
A processing device comprising at least one processor,
the at least one processor
Acquiring image data of a captured image captured by an imaging device included in the processing device or connected to the processing device via a communication interface;
generating fluid region identification information that identifies a fluid region in which the fluid exists in the captured image based on the acquired image data;
analyzing the attribute information of the fluid present in the fluid region specified based on the fluid region specifying information;
A processing device configured to process for
前記流体領域は、学習用画像の画像データと、前記学習用画像中においてあらかじめ流体が存在する流体領域が特定された学習用流体領域特定情報とを少なくとも用いて機械学習することにより生成された学習済み流体領域特定モデルに、前記撮像画像の画像データを入力することで特定される、請求項1に記載の処理装置。 The fluid region is a learning generated by machine learning using at least image data of a learning image and learning fluid region specifying information in which a fluid region in which a fluid exists in the learning image is specified in advance. 2. The processing device according to claim 1, specified by inputting image data of said captured image into a completed fluid region specifying model. 前記属性情報は前記流体の種類を示す分類情報を含む、請求項1又は2に記載の処理装置。 3. The processing device according to claim 1, wherein said attribute information includes classification information indicating a type of said fluid. 前記属性情報は前記流体の特性を示す特性情報をさらに含む、請求項3に記載の処理装置。 4. The processing device according to claim 3, wherein said attribute information further includes property information indicating properties of said fluid. 前記特性情報は前記流体の粘度及び流速の少なくともいずれか一方である、請求項4に記載の処理装置。 5. The processing apparatus according to claim 4, wherein said characteristic information is at least one of viscosity and flow velocity of said fluid. 前記少なくとも一つのプロセッサが、
前記流体領域特定情報に基づいて、前記流体領域に存在する前記流体の前記分類情報を解析し、
解析された前記分類情報に基づいて、前記流体領域に存在する前記流体の前記特性情報を解析する、
ための処理をするように構成された、請求項4又は5に記載の処理装置。
the at least one processor
analyzing the classification information of the fluid present in the fluid region based on the fluid region identification information;
analyzing the property information of the fluid present in the fluid region based on the analyzed classification information;
6. A processing apparatus according to claim 4 or 5, configured to process for.
前記分類情報は、学習用画像中においてあらかじめ流体が存在する流体領域が特定された学習用流体領域特定情報と、前記学習用画像中の流体の種類をあらかじめ分類した学習用分類情報とを少なくとも用いて機械学習することにより生成された学習済み流体分類モデルに、前記撮像画像に基づいて生成された前記流体領域特定情報を入力することで解析される、請求項3~6のいずれか一項に記載の処理装置。 The classification information uses at least learning fluid region identification information that preliminarily identifies a fluid region in which a fluid exists in a learning image, and learning classification information that preliminarily classifies the type of fluid in the learning image. 7. The analysis is performed by inputting the fluid region identification information generated based on the captured image into a learned fluid classification model generated by machine learning with Processing equipment as described. 前記特性情報は、前記学習用画像の画像データと、前記学習用画像中において存在する流体に対してあらかじめ特性を解析した学習用特性情報とを少なくとも用いて機械学習することにより生成された学習済み特性解析モデルに、前記撮像画像の画像データを入力することで解析される、請求項4~6のいずれか一項に記載の処理装置。 The characteristic information is a trained image generated by performing machine learning using at least image data of the learning image and learning characteristic information obtained by analyzing characteristics of a fluid present in the learning image in advance. 7. The processing device according to any one of claims 4 to 6, wherein analysis is performed by inputting image data of said captured image into a characteristic analysis model. 前記流体は、気体、液体、気体及び液体が混合物、気体又は液体に微量の固体が混合された混合物の少なくともいずれかである、請求項1~8のいずれか一項に記載の処理装置。 The processing apparatus according to any one of claims 1 to 8, wherein the fluid is at least one of gas, liquid, a mixture of gas and liquid, and a mixture of gas or liquid mixed with a small amount of solid. 処理装置に具備された少なくとも一つのプロセッサにより実行されることにより、
前記少なくとも一つのプロセッサを、
前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得し、
取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成し、
前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する、
ように機能させる処理プログラム。
By being executed by at least one processor provided in the processing device,
the at least one processor;
Acquiring image data of a captured image captured by an imaging device included in the processing device or connected to the processing device via a communication interface;
generating fluid region identification information that identifies a fluid region in which the fluid exists in the captured image based on the acquired image data;
analyzing the attribute information of the fluid present in the fluid region specified based on the fluid region specifying information;
A processing program that functions as
処理装置に具備された少なくとも一つのプロセッサにより実行される処理方法であって、
前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得する段階と、
取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成する段階と、
前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する段階と、
を含む処理方法。


A processing method executed by at least one processor provided in a processing device, comprising:
acquiring image data of a captured image captured by an imaging device included in the processing device or connected to the processing device via a communication interface;
generating fluid region identification information that identifies a fluid region in which fluid exists in the captured image based on the acquired image data;
analyzing attribute information of the fluid existing in the fluid region specified based on the fluid region specifying information;
processing methods, including;


JP2021202018A 2021-12-13 2021-12-13 Processing device, processing program and processing method Pending JP2023087562A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021202018A JP2023087562A (en) 2021-12-13 2021-12-13 Processing device, processing program and processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021202018A JP2023087562A (en) 2021-12-13 2021-12-13 Processing device, processing program and processing method

Publications (1)

Publication Number Publication Date
JP2023087562A true JP2023087562A (en) 2023-06-23

Family

ID=86850956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021202018A Pending JP2023087562A (en) 2021-12-13 2021-12-13 Processing device, processing program and processing method

Country Status (1)

Country Link
JP (1) JP2023087562A (en)

Similar Documents

Publication Publication Date Title
US11650659B2 (en) User input processing with eye tracking
US11775078B2 (en) Resource-responsive motion capture
US10803315B2 (en) Electronic device and method for processing information associated with food
US10366300B1 (en) Systems and methods regarding 2D image and 3D image ensemble prediction models
US11068754B1 (en) Systems and methods regarding image distification and prediction models
US11670097B2 (en) Systems and methods for 3D image distification
US20210319585A1 (en) Method and system for gaze estimation
JP6749655B1 (en) Inspection device, abnormality detection method, computer program, learning model generation method, and learning model
EP3376433A1 (en) Image processing apparatus, image processing method, and image processing program
EP4044907A1 (en) Automatic pressure ulcer measurement
JP2018147286A (en) Object analyzing apparatus, object analyzing method, learning apparatus, and learning method
JP2023087562A (en) Processing device, processing program and processing method
US20200065631A1 (en) Produce Assessment System
JP7443929B2 (en) Medical diagnosis support device, medical diagnosis support program, and medical diagnosis support method
WO2022241574A1 (en) Texture mapping to polygonal models for industrial inspections
KR20190113351A (en) Analysis apparatus for medical image using machine learning algorithm
WO2023188919A1 (en) Screw configuration estimation device, screw configuration estimation method, and computer program
TW202407639A (en) Screw piece assembly error detecting device, screw piece assembly error detecting method, and computer program
JP2023128693A (en) Information processing device, analysis program, and analysis method
Sulik et al. Blood Detection in Biomedical Images using a Software Analysis
Wu et al. The Study of Visual Self-adaptive Controlled MeanShift Algorithm
CN117409038A (en) Eye movement tracking method and device, electronic equipment and computer storage medium
CN115131592A (en) Fundus image classification film reading system and fundus image classification film reading method
CN113933248A (en) Hyperspectral online detection system and method
CN117242528A (en) System and method for processing images for skin analysis and visualization of skin analysis

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20240319