JP2023087562A - 処理装置、処理プログラム及び処理方法 - Google Patents
処理装置、処理プログラム及び処理方法 Download PDFInfo
- Publication number
- JP2023087562A JP2023087562A JP2021202018A JP2021202018A JP2023087562A JP 2023087562 A JP2023087562 A JP 2023087562A JP 2021202018 A JP2021202018 A JP 2021202018A JP 2021202018 A JP2021202018 A JP 2021202018A JP 2023087562 A JP2023087562 A JP 2023087562A
- Authority
- JP
- Japan
- Prior art keywords
- fluid
- information
- processing device
- image
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 166
- 238000003672 processing method Methods 0.000 title claims abstract description 10
- 239000012530 fluid Substances 0.000 claims abstract description 184
- 238000003384 imaging method Methods 0.000 claims abstract description 103
- 238000000034 method Methods 0.000 claims abstract description 41
- 238000004891 communication Methods 0.000 claims abstract description 25
- 238000004458 analytical method Methods 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 16
- 238000010801 machine learning Methods 0.000 claims description 12
- 238000013145 classification model Methods 0.000 claims description 9
- 239000007788 liquid Substances 0.000 claims description 9
- 239000000203 mixture Substances 0.000 claims description 6
- 239000007787 solid Substances 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 description 49
- 230000015654 memory Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 30
- 238000013528 artificial neural network Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 8
- 239000007789 gas Substances 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 235000013361 beverage Nutrition 0.000 description 3
- 239000004568 cement Substances 0.000 description 3
- 239000002537 cosmetic Substances 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 239000006260 foam Substances 0.000 description 3
- 235000013305 food Nutrition 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 235000015110 jellies Nutrition 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 239000003921 oil Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- -1 foodstuffs Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000008274 jelly Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本開示は、カメラによって撮像された撮像画像から流体の属性情報を解析するための処理装置、処理プログラム及び処理方法に関する。
従来より、カメラ等によって撮像された画像を学習済みモデルに入力することで当該画像中に含まれる物体を識別することが知られていた。例えば、特許文献1には、カメラで撮像された画像を、所定の物体を検出するように予め学習された第1の識別器に入力することで、画像上において物体を含みかつ所定の形状を有する物体領域を検出するための物体状態識別装置が記載さ入れている。しかし、このような装置においては、形状の変化に乏しい物体の識別がされるのにとどまっていた。
そこで、上記のような技術を踏まえ、本開示では、様々な実施形態により、流体の属性情報の解析に適した処理装置、処理プログラム及び処理方法を提供することを目的とする。
本開示の一態様によれば、「少なくとも一つのプロセッサを具備する処理装置であって、前記少なくとも一つのプロセッサが、前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得し、取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成し、前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する、ための処理をするように構成された、処理装置」が提供される。
本開示の一態様によれば、「処理装置に具備された少なくとも一つのプロセッサにより実行されることにより、前記少なくとも一つのプロセッサを、前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得し、取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成し、前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する、ように機能させる処理プログラム」が提供される。
本開示の一態様によれば、「処理装置に具備された少なくとも一つのプロセッサにより実行される処理方法であって、前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得する段階と、取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成する段階と、前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する段階と、を含む処理方法」が提供される。
本開示によれば、流体の属性情報の解析に適した処理装置、処理プログラム及び処理方法を提供することができる。
なお、上記効果は説明の便宜のための例示的なものであるにすぎず、限定的なものではない。上記効果に加えて、又は上記効果に代えて、本開示中に記載されたいかなる効果や当業者であれば明らかな効果を奏することも可能である。
添付図面を参照して本開示の様々な実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。
1.処理システム1の概要
本開示に係る処理システム1は、例えばカメラ等の撮像装置で撮像された撮像画像中において所定の被写体が存在する領域を特定し、当該領域に存在する被写体の属性情報を解析するために用いられる。当該処理システム1に利用される被写体としては、外部からの圧力が加わることによって容易に変形しうる流体が挙げられる。このような流体の例としては、気体、液体、気体及び液体が混合されたもの及び気体又は液体に微量の固体が混合されたもの等が挙げられる。このような流体は、一般的には粘度を生じ、外側からの力によって動きを生じ、他の物体との境界が一定ではない。
本開示に係る処理システム1は、例えばカメラ等の撮像装置で撮像された撮像画像中において所定の被写体が存在する領域を特定し、当該領域に存在する被写体の属性情報を解析するために用いられる。当該処理システム1に利用される被写体としては、外部からの圧力が加わることによって容易に変形しうる流体が挙げられる。このような流体の例としては、気体、液体、気体及び液体が混合されたもの及び気体又は液体に微量の固体が混合されたもの等が挙げられる。このような流体は、一般的には粘度を生じ、外側からの力によって動きを生じ、他の物体との境界が一定ではない。
図1は、本開示の一実施形態に係る処理システム1の使用の例を示す図である。具体的には、図1は、処理システム1において利用される流体が被写体として撮像された撮像画像の例を示す図である。図1によると、床面11、床面11に置かれたマグネティックスターラー12、マグネティックスターラー12上に載置されたコップ13、コップ13の内部に注がれた流体14等が被写体として用いられている。そして、これら被写体をカメラ等で撮像された撮像画像を、本開示に係る処理システム1に適用することによって、撮像画像中において流体14が存在する領域が特定され、当該領域に存在する流体14の属性情報が解析される。
なお、本開示において流体とは、上記のとおり気体、液体、気体及び液体が混合されたもの及び気体又は液体に微量の固体が混合されたもの等が挙げられる。このような流体の例としては、水、飲料、ゼリー、化粧品、医薬品、食品、セメント、泡、食用、燃料用、産業用などのオイル等が挙げられる。
また、本開示において属性情報とは、流体の種類、特性、性質等を示す情報であればいずれでもよい。典型的には、流体の分類情報(種類)、粘度、流速、質量、圧力、温度又はそれらの組み合わせが属性情報の例として挙げられる。処理システム1はこれらの属性情報の全てを解析する必要はなく、少なくともいずれか一つが解析できれば良い。
また、本開示において撮像画像としては、一又は複数の動画であってもよいし一又は複数の静止画であってもよい。このような撮像画像を得るために、カメラ等の撮像装置が用いられるが、その動作の一例としては、電源ボタンが押下されると、撮像装置によるスルー画像の取り込みを行い、取り込まれたスルー画像が撮像装置のディスプレイに表示される。その後、使用者によって撮像ボタンが押下されると、一又は複数の静止画像が撮像装置によって撮像され、撮像された画像をディスプレイに表示する。又は、使用者によって撮像ボタンが押下されると、動画の撮像が開始され、その間撮像装置で撮像されている画像がディスプレイに表示される。そして、再度撮像ボタンが押下されると動画の撮像が終了される。このように、一連の動作において、スルー画像や静止画、動画など様々な画像が撮像装置によって撮像され、ディスプレイに表示されるが、撮像画像はこれらのうちの特定の画像のみを意味するのではなく、撮像装置で撮像された画像の全てを含みうる。さらに、本開示において、画像データは撮像画像を所定のデータ形式で示したデータのことを意味するに過ぎず、特定のデータ形式で示されたデータのみを指すものではない。
2.処理システム1の構成
図2は、本開示の一実施形態に係る処理システム1の概略図である。図2によれば、処理システム1は、処理装置100と、当該処理装置100に有線又は無線ネットワークを介して通信可能に接続された撮像装置200とを含む。処理装置100は、使用者による操作入力を受け付けて、撮像装置200による撮像を制御する。また、処理装置100は、撮像装置200によって撮像された撮像画像を処理して、撮像画像中に流体が存在する領域を特定し、当該流体の属性情報を解析する。
図2は、本開示の一実施形態に係る処理システム1の概略図である。図2によれば、処理システム1は、処理装置100と、当該処理装置100に有線又は無線ネットワークを介して通信可能に接続された撮像装置200とを含む。処理装置100は、使用者による操作入力を受け付けて、撮像装置200による撮像を制御する。また、処理装置100は、撮像装置200によって撮像された撮像画像を処理して、撮像画像中に流体が存在する領域を特定し、当該流体の属性情報を解析する。
このような撮像装置200としては典型的にはカメラが挙げられるが、図2に示すように必ずしも処理装置100と有線又は無線ネットワークを介して接続されている必要はない。例えば、処理装置100の中の構成要素として備えられた撮像装置200であっても本開示に係る処理を適切に実行することが可能である。また、撮像装置200は、それ単独で存在している必要はなく他の装置と組み合わされて存在してもよい。例えば、流体、流体を含む製品又は流体を材料とする製品を製造するための製造ライン装置中に当該撮像装置200を配置させることも可能である。
図3は、本開示の一実施形態に係る処理装置100の構成を示すブロック図である。図3によると、処理装置100は、出力インターフェイス111、プロセッサ112、メモリ113、入力インターフェイス115及び通信インターフェイス114を含む。これらの各構成要素は、互いに、制御ライン及びデータラインを介して互いに電気的に接続される。なお、処理装置100は、図3に示す構成要素のすべてを備える必要はなく、一部を省略して構成することも可能であるし、他の構成要素を加えることも可能である。例えば、処理システム1は、各構成要素を駆動するためのバッテリ等を含むことが可能である。
また、このような処理装置100としては、ラップトップPC、デスクトップPC、スマートフォン、タブレット等が利用可能である。ただし、これらに限らず他の装置であっても好適に処理装置100として利用することが可能である。また、処理装置100は、全ての処理を処理装置100自体が実行する必要はなく、一部の処理を他の装置と一体となって実行することも可能である。例えば、学習済みアルゴリズムによる解析処理などをクラウドサーバ装置において共同して実行することも可能であり、このような場合は当該装置を含めて処理装置100ということもある。
まず、プロセッサ112は、メモリ113に記憶されたプログラムに基づいて処理装置100の他の構成要素の制御を行う制御部として機能する。プロセッサ112は、メモリ113に記憶されたプログラムに基づいて、撮像装置200から撮像画像の画像データを取得し、流体の属性情報の解析に係る処理を制御する。具体的には、プロセッサ112は、処理装置100に含まれるか通信インターフェイス114を介して接続された撮像装置200において撮像された撮像画像の画像データを取得する処理、学習済み流体領域特定モデルに撮像画像の画像データを入力する処理、取得された画像データに基づいて撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成する処理、流体領域特定情報に基づいて流体領域に存在する流体の分類情報を解析する処理、解析された分類情報に基づいて流体領域に存在する流体の特性情報を解析する処理などを、メモリ113に記憶されたプログラムに基づいて実行する。プロセッサ112は、主に一又は複数のプロセッサで構成されてもよく、このようなプロセッサとしては、CPU、GPUやFPGAなどを組み合わせてもよい。
メモリ113は、RAM、ROM、不揮発性メモリ、HDD等から構成され、記憶部として機能する。メモリ113は、本実施形態に係る処理装置100の様々な制御のための指示命令をプログラムとして記憶する。具体的には、メモリ113は、処理装置100に含まれるか通信インターフェイス114を介して接続された撮像装置200において撮像された撮像画像の画像データを取得する処理、学習済み流体領域特定モデルに撮像画像の画像データを入力する処理、取得された画像データに基づいて撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成する処理、流体領域特定情報に基づいて流体領域に存在する流体の分類情報を解析する処理、解析された分類情報に基づいて流体領域に存在する流体の特性情報を解析する処理などプロセッサ112が実行するためのプログラムを記憶する。また、メモリ113は、当該プログラムのほかに、撮像装置200で撮像された撮像画像の画像データや、当該画像を管理するための画像テーブルなどを記憶する。また、メモリ113は、撮像画像の解析に用いられる学習済みセグメンテーション判定モデル、学習済み特性解析モデル、学習済み流体分類モデル、学習済み特性解析モデル等の各学習済みモデルに係るプログラムを記憶する。
入力インターフェイス115は、処理装置100に対する使用者の指示入力を受け付ける入力部として機能する。入力インターフェイス115の一例としては、撮像装置200において被写体を撮像するための指示を送信する「撮像ボタン」、各種選択を行うための「確定ボタン」、前画面に戻ったり入力した確定操作をキャンセルするための「戻る/キャンセルボタン」、出力インターフェイス111を介してディスプレイに表示されたポインタ等の移動をするための十字キーボタン、処理装置100の電源のオンオフをするためのオン・オフキー、様々な文字を入力するための文字入力キーボタン等の物理キーボタンが挙げられる。なお、入力インターフェイス115には、出力インターフェイス111として機能するディスプレイに重畳して設けられ、ディスプレイの表示座標系に対応する入力座標系を有するタッチパネルを用いることも可能である。この場合、ディスプレイに上記物理キーに対応するアイコンが表示され、タッチパネルを介して使用者が指示入力を行うことで、各アイコンに対する選択が行われる。タッチパネルによる使用者の指示入力の検出方式は、静電容量式、抵抗膜式などいかなる方式であってもよい。入力インターフェイス115は、常に処理装置100に物理的に備えられる必要はなく、有線や無線ネットワークを介して必要に応じて接続されてもよい。
出力インターフェイス111は、撮像装置200によって撮像された撮像画像、処理装置100で処理されたセグメンテーション画像、解析された流体の属性情報等を出力するための出力部として機能する。出力インターフェイス111の一例としては、液晶パネル、有機ELディスプレイ又はプラズマディスプレイ等から構成されるディスプレイが挙げられる。しかし、必ずしも処理装置100そのものにディスプレイが備えられている必要はない。例えば、有線又は無線ネットワークを介して処理装置100と接続可能なディスプレイ等と接続するためのインターフェイスが、当該ディスプレイ等に表示データを出力する出力インターフェイス111として機能することも可能である。
通信インターフェイス114は、有線又は無線ネットワークを介して接続された撮像装置200に対して撮像開始などに関連する各種コマンドや撮像装置200で撮像された撮像画像の画像データを送受信するための通信部として機能する。通信インターフェイス114の一例としては、USB、SCSIなどの有線通信用コネクタや、無線LAN、Bluetooth(登録商標)、赤外線などの無線通信用送受信デバイスや、プリント実装基板やフレキシブル実装基板用の各種接続端子など、様々なものが挙げられる。
また、具体的に図示はしていないものの、撮像装置200は、カメラ、光源、プロセッサ、メモリ、表示パネル、入力インターフェイス及び通信インターフェイス等を含む。これらの各構成要素は、互いに、制御ライン及びデータラインを介して互いに電気的に接続される。なお、撮像装置200は、これらの構成要素のすべてを備える必要はなく、一部を省略して構成することも可能であるし、他の構成要素を加えることも可能である。
撮像装置200のうち、カメラは、被写体であるに反射した反射光を検出して被写体画像を生成する撮像部として機能する。カメラは、その光を検出するために、一例としてCMOSイメージセンサと、所望の機能を実現するためのレンズ系と駆動系を備える。イメージセンサは、CMOSイメージセンサに限らず、CCDイメージセンサ等の他のセンサを用いることも可能である。
光源は、処理装置100又は撮像装置200からの指示によって駆動され、口腔内に光を照射するための光源部として機能する。光源は、一又は複数の光源を含む。本実施形態においては、光源は、一又は複数のLEDから構成され、各LEDから所定の周波数帯域を有する光が口腔方向に照射される。光源には、一例としては、紫外光帯域、可視光帯域、赤外光帯域の中から所望の帯域を有する光、又はそれらの組み合わせが用いられる。
プロセッサは、メモリに記憶されたプログラムに基づいて撮像装置200の他の構成要素の制御を行う制御部として機能する。具体的は、プロセッサは、メモリに記憶されたプログラムに基づいて、カメラの駆動、光源の駆動を制御するとともに、カメラによって撮像された撮像画像や撮像における撮像条件等のメモリへの記憶を制御する。また、プロセッサは、メモリに記憶された撮像画像の表示パネルへの出力や、処理装置100への送信を制御する。プロセッサは、主に一又は複数のプロセッサにより構成され、このようなプロセッサとしてはCPUが一例として用いられる。
メモリは、RAM、ROM、不揮発性メモリ、HDD等から構成され、記憶部として機能する。メモリは、撮像装置200の様々な制御のための指示命令をプログラムとして記憶する。また、メモリは、当該プログラムのほかに、カメラで撮像された撮像画像などを記憶する。
表示パネルは、撮像装置200によって撮像された被写体画像を表示するための表示部として機能する。表示パネルは、液晶パネルによって構成されるが、液晶パネルに限らず、有機ELディスプレイやプラズマディスプレイ等から構成されていてもよい。
入力インターフェイスは、処理装置100及び撮像装置200に対する使用者の指示入力を受け付ける入力部として機能する。入力インターフェイス210の一例としては、撮像装置200による録画の開始・終了を指示するための「撮像ボタン」、撮像装置200の電源のオンオフをするための「電源ボタン」、各種選択を行うための「確定ボタン」、前画面に戻ったり入力した確定操作をキャンセルするための「戻る/キャンセルボタン」、表示パネルに表示されたアイコン等の移動をするための十字キーボタン等の物理キーボタンが挙げられる。なお、これらの各種ボタン・キーは、物理的に用意されたものであってもよいし、表示パネルにアイコンとして表示され、表示パネルに重畳して入力インターフェイスとして配置されたタッチパネル等を用いて選択可能にしたものであってもよい。タッチパネルによる使用者の指示入力の検出方式は、静電容量式、抵抗膜式などいかなる方式であってもよい。
通信インターフェイスは、撮像装置200及び/又は他の装置と情報の送受信を行うための通信部として機能する。通信インターフェイスの一例としては、USB、SCSIなどの有線通信用コネクタや、無線LAN、Bluetooth(登録商標)、赤外線などの無線通信用送受信デバイスや、プリント実装基板やフレキシブル実装基板用の各種接続端子など、様々なものが挙げられる。
さらに、処理システム1は、図示はしないものの、各種センサ装置を含むことが可能である。このようなセンサ装置としては、被写体に対して加えられる圧力、被写体に対して加えられる重力、被写体の表面状態、被写体が置かれている周囲の温度等が測定可能なものであればいずれでもよい。具体的には、被写体の表面状態を解析する画像センサ、被写体の周辺温度を測定するための温度センサ、被写体の内部の温度を測定するための温度センサ、圧力センサ、距離センサ又はこれらの組み合わせ等が挙げられる。センサ装置は、センサ装置自体が単独で存在し、測定された出力値を処理装置100に送信するようにしてもよい。また、センサ装置は処理装置100又は撮像装置200の構成要素の一つとしてその内部に備えられ、測定された出力値を処理装置100のプロセッサ112で処理可能に送信するようにしてもよい。
3.処理装置100のメモリ113に記憶される情報
図4は、本開示の一実施形態に係る処理装置100のメモリ113に記憶される画像テーブルを概念的に示す図である。画像テーブルに記憶される情報は、処理装置100のプロセッサ112の処理の進行に応じて随時更新して記憶される。
図4は、本開示の一実施形態に係る処理装置100のメモリ113に記憶される画像テーブルを概念的に示す図である。画像テーブルに記憶される情報は、処理装置100のプロセッサ112の処理の進行に応じて随時更新して記憶される。
図4によれば、画像テーブルには、画像ID情報に対応付けて、画像データ、撮像条件情報、撮像環境情報、セグメンテーション画像データ、分類情報、特性情報等が記憶される。「画像ID情報」は、撮像装置200で撮像された各撮像画像を特定するための情報である。画像ID情報は、撮像装置200において新たな撮像画像が撮像されるごと、又は処理装置100で新たな撮像画像が取得されるごとに生成されえる情報である。「画像データ」は、撮像装置200で撮像された撮像画像の画像データそのものの情報又はその格納先を特定する情報である。「撮像条件情報」は、撮像装置200において撮像画像が撮像された時の撮像条件を示す情報である。このような撮像条件情報としては、撮像画像を撮像したときの絞り値、シャッタースピード、ISO感度、露出、ホワイトバランス又はそれらの組み合わせが挙げられる。当該撮像条件情報は、撮像装置200において撮像時の条件が記憶され、撮像装置200から撮像画像の画像データを受信する際に一緒に取得される。なお、撮像装置200では、このような撮像条件は自動で設定されることも可能であるし、処理装置100又は撮像装置200において受け付けられた使用者や他の使用者からの指示入力に応じて設定されることも可能である。「撮像環境情報」は、撮像装置200において撮像画像が撮像された時の被写体自体又は被写周辺の環境に関する情報である。このような撮像環境情報としては、各種センサ装置で測定された出力値であり、圧力(気圧)、被写体に対して加えられる重力、被写体の表面状態、被写体が置かれている周囲の温度、被写体までの距離の情報が挙げられる。撮像環境情報は、撮像装置200で撮像指示が受け付けられるのに同期して各種センサにも測定指示が受け付けられ、各種センサにおいて測定される。そして、測定された出力値は、通信インターフェイス114を介して処理装置100に取得される。
「セグメンテーション画像データ」は取得された撮像画像の画像データを学習済みセグメンテーション判定モデルに入力した結果得られる画像データである。一例としては、流体が存在する流体領域、流体領域以外のその他の領域、及びこれらの境界となる境界領域とをセグメンテーション(区画)した結果に色情報を付加して、各領域を識別可能にした画像データである。「分類情報」は、流体の属性情報の一つであり、撮像画像の画像データとセグメンテーション画像データを学習済み流体分類モデルに入力した結果得られる流体の種類を示す情報である。このような流体の種類としては、水、飲料、ゼリー、化粧品、医薬品、食品、セメント、泡、食用、燃料用、産業用などのオイル等が挙げられる。「特性情報」は、流体の属性情報の一つであり、撮像画像の画像データ、セグメンテーション画像データ及び分類情報を学習済み特性解析モデルに入力した結果得られる流体の特性を示す情報である。このような流体の特性情報としては、粘度、流速、質量、圧力、温度等が挙げられる。
4.処理装置100で実行される処理フロー
図5は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図5は、処理装置100において撮像装置200から撮像画像が取得され属性情報の解析を行いその結果を出力するまでの処理フローを示す図である。当該処理フローは、主に処理装置100のプロセッサ112がメモリ113に記憶されたプログラムを読み出して実行することにより行われる。
図5は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図5は、処理装置100において撮像装置200から撮像画像が取得され属性情報の解析を行いその結果を出力するまでの処理フローを示す図である。当該処理フローは、主に処理装置100のプロセッサ112がメモリ113に記憶されたプログラムを読み出して実行することにより行われる。
図5によると、当該処理フローの実行の前に、プロセッサ112は、撮像装置200において撮像された被写体の撮像画像の画像データを、通信インターフェイス114を介して受信し、メモリ113の画像テーブルに画像ID情報と対応付けて記憶する。また、このとき、撮像装置200における撮像と同期して測定された各種センサ装置から測定された出力値を、通信インターフェイス114を介して受信し、メモリの画像テーブルに画像ID情報と対応付けて記憶する。さらに、撮像装置200において撮像画像が撮像されたときの撮像条件情報を、通信インターフェイス114を介して受信し、メモリの画像テーブルに画像ID情報と対応付けて記憶する。
ここで、図9Aは、本開示の一実施形態に係る処理装置100で処理される撮像画像の例を示す図である。具体的には、図9Aは、撮像装置200で撮像された撮像画像の一例を示す図である。図9Aによると、床面11、床面11に置かれたマグネティックスターラー12、マグネティックスターラー12上に載置されたコップ13、コップ13の内部に注がれた流体14等が被写体として撮像されている。すなわち、この撮像画像中には、流体領域として流体14が存在している領域があり、その他の領域として流体以外の床面11、マグネティックスターラー12及びコップ13等が存在している領域がある。以下においては、このような撮像画像を処理に用いる場合について説明する。
再び図5に戻り、プロセッサ112は、メモリ113の画像テーブルを参照して未処理の画像データがある場合、当該画像データを読み出す(S111)。プロセッサ112は、読み出された画像データを学習済みセグメンテーション判定モデル(当該学習済みモデルの作成については後述する。)に入力して流体のセグメンテーション処理を行う(S112)。このとき学習済みセグメンテーション判定モデルには画像データのみが入力されているが、これに加えて撮像画像の画像ID情報に対応付けられた撮像条件情報、撮像環境情報又はそれらの組み合わせもさらに用いることが可能である。
ここで、図9Bは、本開示の一実施形態に係る処理装置100で処理されるセグメンテーション画像の例を示す図である。具体的には、図5のS112において学習済みセグメンテーション判定モデルに撮像画像の画像データが入力された結果得られるセグメンテーション画像データの例を示す図である。図9Bによると、撮像画像中には、図9Aに示したとおり、流体領域として流体14が存在している領域と、その他の領域として流体以外の床面11、マグネティックスターラー12及びコップ13等が存在している領域とが含まれている。このような撮像画像の画像データが学習済みセグメンテーション判定モデルに入力されることにより、流体14が存在していた領域に対応して流体領域15、流体14以外のものが存在した領域であるその他の領域(床面11、マグネティックスターラー12及びコップ13等の領域)に対応してその他領域16、流体領域15とその他領域16との境界を示す境界領域17が識別可能に特定されている。このように、図9に示されたセグメンテーション画像データによれば、画素ごとに流体領域、その他領域及び境界領域のいずれかが特定され、画素ごとに特定された領域に対応した色情報を付加して、各領域が識別可能に特定されている。なお、色情報による識別は、出力インターフェイス111を介してディスプレイ等に出力したときに使用者等が識別可能にするために用いているにすぎない。そのため、ここでは画素ごと(座標位置ごと)にいずれの領域であるのかが特定されていればよく、当然に他の情報による識別をしてもよいし、色情報等をさらに付加しなくてもよい。例えば、グレースケールで識別させてもよいし、特定のコードを付して識別してもよい。
再び図5に戻り、プロセッサ112は、処理された結果得られた撮像画像のセグメンテーション画像データをメモリ113の画像テーブルに、処理された撮像画像の画像データの画像ID情報に対応付けて記憶する(S113)。そして、プロセッサ112は、得られたセグメンテーション画像データに基づいて、流体領域が存在するか否かを判断する(S114)。その結果、流体領域が存在すると判断された場合には、プロセッサ112は、撮像画像の画像データとS113で記憶されたセグメンテーション画像データを学習済み流体分類モデル(当該学習済みモデルの作成については後述する。)に入力して、流体の分類処理を行う(S115)。このとき学習済み流体分類モデルには画像データ及びセグメンテーション画像データが入力されているが、これに加えて撮像画像の画像ID情報に対応付けられた撮像条件情報、撮像環境情報又はそれらの組み合わせを用いてもよい。
次に、プロセッサ112は、セグメンテーション画像データに基づいて特定される流体領域に存在する流体に関して、学習済み流体分類モデルに入力された結果解析された分類情報(水、飲料、ゼリー、化粧品、医薬品、食品、セメント、泡、食用、燃料用、産業用などのオイル等)を、メモリ113の画像テーブルに、処理された撮像画像の画像データの画像ID情報に対応付けて記憶する(S116)。そして、プロセッサ112は、撮像画像の画像データ、S113で記憶されたセグメンテーション画像データ、及びS116で記憶された分類情報を学習済み特性解析モデル(当該学習済みモデルの作成については後述する。)に入力して、流体の特性解析処理を行う(S117)。このとき学習済み流体分類モデルには画像データ、セグメンテーション画像データ及び分類情報が入力されているが、これに加えて撮像画像の画像ID情報に対応付けられた撮像条件情報、撮像環境情報又はそれらの組み合わせを用いてもよい。
次に、プロセッサ112は、セグメンテーション画像データに基づいて特定される流体領域に存在する流体に関して、学習済み特性解析モデルに入力された結果解析された特性情報(粘度、流速、質量、圧力、温度等)を、メモリ113の画像テーブルに、処理された撮像画像の画像データの画像ID情報に対応付けて記憶する(S118)。そして、プロセッサ112は、入力インターフェイス115を介して使用者からの要求を受け付けて、当該要求に基づいて出力インターフェイス111を介してその解析結果をディスプレイ等に出力する(S119)。以上により、当該処理フローは終了する。
ここで、図10は、本開示の一実施形態に係る処理装置100から出力される画面の例を示す図である。具体的には、図10は、図5のS119において出力インターフェイス111を介してディスプレイに出力された解析結果画像の例を示す図である。図10によると、ディスプレイの左上に、撮像装置200で撮像された撮像画像22が表示されている。また、当該撮像画像22の右隣に、各領域の位置関係を比較可能に、セグメンテーション画像データを再現したセグメンテーション画像21が表示されている。これによって、使用者は、セグメンテーション画像データに基づいて特定される流体領域、その他領域及び境界領域をそれぞれ視覚的に識別することが可能である。
また、撮像画像22の下部には撮像環境表示エリア25が表示される。撮像環境表示エリア25には、一例としては、メモリ113の画像テーブルに撮像環境情報として記憶された圧力(気圧)及び温度が含まれるが、当然に他の撮像環境情報が含まれてもよい。また、セグメンテーション画像21の下部には、セグメンテーションされた流体の分類情報23、流体の特性情報(流速情報24a及び粘度情報24b)が表示される。これにより、各学習済みモデルによって解析された流体の属性情報を、使用者は視覚的に認識可能になる。なお、ここに表示されえる特定情報は、流速や粘度に限らず、流体自体の温度など、他の特性情報であってもよい。
なお、図5において、S111で読み出される撮像画像の画像データに関して、図5において特段の画像処理をすることは明示していないが、所望に応じて所定の前処理を行うことも可能である。このような前処理としては、ハイパスフィルタやローパスフィルタを含むバンドパスフィルタ、平均化フィルタ、ガウシアンフィルタ、ガボールフィルタ、キャニーフィルタ、ソーベルフィルタ、ラプラシアンフィルタ、メディアンフィルタ、バイラテラルフィルタなどのフィルタ処理、トリミング処理、曇り除去処理、超解像処理及びこれらの組み合わせから、高精細化、領域抽出、ノイズ除去、エッジ強調、画像補正、画像変換などの目的に応じて選択される。このように、前処理を実行することによって、セグメンテーションや流体の分類、特性解析において解析精度を向上させることが可能となる。
また、図5のS112の流体のセグメンテーション処理、S115の流体の分類処理、及びS117の流体の特性解析処理において、入力される画像データ等に加えて、さらに撮像条件情報や撮像環境情報を用いて処理するようにしてもよい。これらの情報を併せて用いることによってその処理精度をさらに向上させることが可能である。例えば、流体の流速は、一般的にその流体の周囲温度又は流体内部の温度の影響を受ける。そのため、高温の場合は流体の移動や形態の変化が激しく、低温の場合は比較的穏やかであるため、セグメンテーション精度が影響を受けることがある。また、同じ条件下では異なる流速を有する流体でありながら、一方は高温化で撮像されたものであり、他方は低温下で撮像されたものである場合、同様の流速になることがある。そのような場合、流体の分類処理や特性解析処理において温度の影響を受けることがある。そこで、所定の温度を閾値として高温条件下で撮像した画像を用いて学習を行った学習済みモデルと低温条件下で撮像した画像を用いて学習を行った学習済みモデルをそれぞれ用意する。そして、入力される撮像画像が撮像されたときの撮像環境情報に基づいて、閾値よりも高温か低温かに応じて入力する学習済みモデルを選択するようにしてもよい。また、撮像環境情報や撮像条件情報は、各学習済みモデルの学習の際に入力されるパラメータとしても用いることができる。例えば、上記の温度の例では、流体の特性に温度が少なからず影響することがあるため、当該温度情報も一緒に学習することによって、学習済みモデルからその特性の解析結果を出力する際に温度を考慮した結果を出力することが可能となる。
また、図5のS111で読み出される撮像画像の画像データは1枚の画像であったり、複数の静止画像群であったり、複数の画像群から構成される動画像であってもよいが、特に複数枚の静止画像群や動画像を用いるのが好ましい。これらの場合、読み出された各画像データ又は一部の画像データについて図5に記載された各処理を行い流体領域のセグメンテーション処理を行うことで、特性情報として流速情報が得られるだけでなく、流体領域の経時的な移動情報や変化情報を得ることが可能である。特に、流体の特性情報として流速情報を解析する場合、時間的に異なる複数枚の静止画や一定期間において撮像された動画像を用いるのが良い。これによって、流体の経時的な変化をより正確に反映することが可能となり、解析精度の向上が可能である。さらに、このとき、プロセッサ112は、各画像データから得られた流速情報や粘度情報等の特性情報に対して、平均、最大値、最小値などの数値を算出することが可能である。このように、より正確な特性情報を得ることが可能である。
5.各学習済みモデルの生成に係る処理フロー
図6は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図6は、図5のS112の流体のセグメンテーション処理に用いられる学習済みセグメンテーション判定モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ112によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。
図6は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図6は、図5のS112の流体のセグメンテーション処理に用いられる学習済みセグメンテーション判定モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ112によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。
図6によると、プロセッサは、例えば撮像装置200によって撮像された撮像画像の学習用画像データを取得するステップを実行する(S211)。次に、プロセッサは、取得された学習用画像データに対してセグメンテーション処理を行い、正解ラベル情報を付与する処理ステップを実行する(S212)。そして、プロセッサは付与された正解ラベル情報を学習用セグメンテーション情報として学習用画像データに対応付けて記憶するステップを実行する(S213)。
学習用画像データとそれに対応付けられた学習用セグメンテーション情報がそれぞれ得られると、プロセッサは、それらを用いてセグメンテーションパターンの機械学習を行うステップを実行する(S214)。当該機械学習は、一例として、ニューロンを組み合わせたニューラルネットワークに対して、これら情報の組を与え、ニューラルネットワークからの出力が正解ラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済みセグメンテーション判定モデルを取得するステップが実行される(S215)。取得された学習済みセグメンテーション判定モデルは、処理装置100のメモリ113や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶される。
なお、図6においては、学習用画像データとして撮像装置200により撮像された撮像画像を用い、当該学習用画像データに対して例えば使用者によりセグメンテーション処理がなされる場合について説明した。しかし、これに限らず、あらかじめ流体が存在する流体領域が特定されたCG(コンピュータグラフィックス)画像を作成し、学習用画像データ及び学習用セグメンテーション情報として利用することも可能である。
また、図6においては、学習用画像データと学習用セグメンテーション情報とを用いて学習する場合について説明したが、例えば撮像装置200で撮像画像が撮像されたときの撮像条件情報や、撮像されたときに各種センサ装置で測定された出力値である撮像環境情報をさらに用いて学習させてもよい。
図7は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図7は、図5のS115の流体の分類処理に用いられる学習済み流体分類モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ112によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。
図7によると、プロセッサは、例えば撮像装置200によって撮像された撮像画像の学習用画像データと、当該画像データを用いて流体領域がセグメンテーションされた学習用セグメンテーション情報を取得するステップを実行する(S311)。次に、プロセッサは、取得された学習用画像データ中に含まれる流体領域に存在する流体を種類に分類する処理を行い、正解ラベル情報を付与する処理ステップを実行する(S312)。そして、プロセッサは付与された正解ラベル情報を学習用分類情報として学習用画像データ等に対応付けて記憶するステップを実行する(S313)。
学習用画像データ等とそれに対応付けられた学習用分類情報がそれぞれ得られると、プロセッサは、それらを用いて分類パターンの機械学習を行うステップを実行する(S314)。当該機械学習は、一例として、ニューロンを組み合わせたニューラルネットワークに対して、これら情報の組を与え、ニューラルネットワークからの出力が正解ラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済み流体分類モデルを取得するステップが実行される(S315)。取得された学習済み流体分類モデルは、処理装置100のメモリ113や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶される。
なお、図7においては、学習用画像データとして撮像装置200により撮像された撮像画像を用い、使用者により入力された当該撮像画像に含まれる流体の種類を正解ラベル情報として用いる場合について説明した。しかし、これに限らず、あらかじめ流体が存在する流体領域とその流体の種類が特定されたCG(コンピュータグラフィックス)画像を作成し、学習用画像データ、学習用セグメンテーション情報及び学習用分類情報として使用することも可能である。
また、図7においては、学習用画像データ、学習用セグメンテーション情報及び学習用分類情報を用いて学習する場合について説明したが、例えば撮像装置200で撮像画像が撮像されたときの撮像条件情報や、撮像されたときに各種センサ装置で測定された出力値である撮像環境情報をさらに用いて学習させてもよい。これらの情報を用いることで、さらに○○○。
図8は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図8は、図5のS117の流体の特性解析処理に用いられる学習済み特性解析モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ112によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。
図8によると、プロセッサは、例えば撮像装置200によって撮像された撮像画像の学習用画像データと、当該画像データを用いて流体領域がセグメンテーションされた学習用セグメンテーション情報と、流体領域に存在する流体の種類が特定された分類情報とを取得するステップを実行する(S411)。次に、プロセッサは、取得された学習用画像データ中の流体領域に存在する流体の特性を解析する処理を行い、正解ラベル情報を付与する処理ステップを実行する(S412)。そして、プロセッサは付与された正解ラベル情報を学習用特性情報として学習用画像データ等に対応付けて記憶するステップを実行する(S413)。
学習用画像データ等とそれに対応付けられた学習用特性情報がそれぞれ得られると、プロセッサは、それらを用いて特性解析パターンの機械学習を行うステップを実行する(S414)。当該機械学習は、一例として、ニューロンを組み合わせたニューラルネットワークに対して、これら情報の組を与え、ニューラルネットワークからの出力が正解ラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済み特性解析モデルを取得するステップが実行される(S415)。取得された学習済み特性解析モデルは、処理装置100のメモリ113や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶される。
ここで、流体の挙動を記述する方程式として下記式1で示されるナビエストーク方程式が用いられる。逆に言えば、流体であるためには、上記学習済み特性解析モデル等を用いて解析された各特性情報が、下記式1で示されるナビエストーク方程式を満たす必要がある。
そのため、学習済み特性解析モデルの学習においては、上記式1で示されるように上記ナビエストーク方程式を適用した損失関数を用いて、学習済み特性解析モデルにより解析された特性情報と正解ラベル情報として用いられた特性情報との間の損失(Ln)を最小にするように各ニューロンのパラメータが調整される。つまり、学習済み特性解析モデルから出力された各特性情報について、上記式1のナビエストーク方程式に入力されたときに当該方程式を満たす値となるように、各ニューロンのパラメータを調整する。
なお、上記式1において、圧力(p)、加速度場(g)及び流体密度(ρ)は固定値として無視することが可能である。また、速度ベクトル(υ)としては、学習済み特性解析モデルから得られた流速情報が、動粘性係数(ν)としては、学習済み特性解析モデルから得られた粘度情報が用いられる。
また、図8においては、学習用画像データとして撮像装置200により撮像された撮像画像を用い、使用者により測定された流体の特性を正解ラベル情報として用いる場合について説明した。しかし、これに限らず、あらかじめ流体が存在する流体領域、その流体の種類及び特性が特定されたCG(コンピュータグラフィックス)画像を作成し、学習用画像データ、学習用セグメンテーション情報、学習用分類情報及び学習用特性情報として使用することも可能である。
また、図6~8においては、学習用画像データ、学習用セグメンテーション情報、学習用分類情報及び学習用特性情報を用いて学習する場合について説明したが、例えば撮像装置200で撮像画像が撮像されたときの撮像条件情報や、撮像されたときに各種センサ装置で測定された出力値である撮像環境情報をさらに用いて学習させてもよい。これらの情報を用いることで、学習済みモデルからその特性の解析結果を出力する際に撮像環境情報や撮像条件情報をさらに考慮した結果を出力することが可能となる。
さらに、図6~図8で説明した各学習済みモデルは、ニューラルネットワークを用いて生成した。しかし、これらに限らず、ニアレストネイバー法、決定木、回帰木、ランダムフォレスト等の機械学習を用いて生成することも可能である。さらに、図6~図8で説明した各学習済みモデルは、ニューラルネットワークを用いて生成した。具体的には、FCN、Mask R-CNN等の機械学習モデルが挙げられる。しかし、これらに限られず、画像を入力可能な機械学習モデルやピクセルデータを出力可能な機械学習モデルであればいずれでも使用可能である。
以上、本開示の一実施形態においては、流体の属性情報の解析に適した処理装置、処理プログラム及び処理方法を提供することができる。
本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能である。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、処理装置やサーバ装置を含む各種のコンピュータに実行させることが可能である。
本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明される各種情報が単一のメモリや記憶部に格納される旨が説明されたとしても、そのような情報は、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェア及びハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。
1 処理システム
100 処理装置
200 撮像装置
100 処理装置
200 撮像装置
Claims (11)
- 少なくとも一つのプロセッサを具備する処理装置であって、
前記少なくとも一つのプロセッサが、
前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得し、
取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成し、
前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する、
ための処理をするように構成された、処理装置。 - 前記流体領域は、学習用画像の画像データと、前記学習用画像中においてあらかじめ流体が存在する流体領域が特定された学習用流体領域特定情報とを少なくとも用いて機械学習することにより生成された学習済み流体領域特定モデルに、前記撮像画像の画像データを入力することで特定される、請求項1に記載の処理装置。
- 前記属性情報は前記流体の種類を示す分類情報を含む、請求項1又は2に記載の処理装置。
- 前記属性情報は前記流体の特性を示す特性情報をさらに含む、請求項3に記載の処理装置。
- 前記特性情報は前記流体の粘度及び流速の少なくともいずれか一方である、請求項4に記載の処理装置。
- 前記少なくとも一つのプロセッサが、
前記流体領域特定情報に基づいて、前記流体領域に存在する前記流体の前記分類情報を解析し、
解析された前記分類情報に基づいて、前記流体領域に存在する前記流体の前記特性情報を解析する、
ための処理をするように構成された、請求項4又は5に記載の処理装置。 - 前記分類情報は、学習用画像中においてあらかじめ流体が存在する流体領域が特定された学習用流体領域特定情報と、前記学習用画像中の流体の種類をあらかじめ分類した学習用分類情報とを少なくとも用いて機械学習することにより生成された学習済み流体分類モデルに、前記撮像画像に基づいて生成された前記流体領域特定情報を入力することで解析される、請求項3~6のいずれか一項に記載の処理装置。
- 前記特性情報は、前記学習用画像の画像データと、前記学習用画像中において存在する流体に対してあらかじめ特性を解析した学習用特性情報とを少なくとも用いて機械学習することにより生成された学習済み特性解析モデルに、前記撮像画像の画像データを入力することで解析される、請求項4~6のいずれか一項に記載の処理装置。
- 前記流体は、気体、液体、気体及び液体が混合物、気体又は液体に微量の固体が混合された混合物の少なくともいずれかである、請求項1~8のいずれか一項に記載の処理装置。
- 処理装置に具備された少なくとも一つのプロセッサにより実行されることにより、
前記少なくとも一つのプロセッサを、
前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得し、
取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成し、
前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する、
ように機能させる処理プログラム。 - 処理装置に具備された少なくとも一つのプロセッサにより実行される処理方法であって、
前記処理装置に含まれるか、前記処理装置に通信インターフェイスを介して接続された撮像装置において撮像された撮像画像の画像データを取得する段階と、
取得された画像データに基づいて前記撮像画像中において流体が存在する流体領域が特定された流体領域特定情報を生成する段階と、
前記流体領域特定情報に基づいて特定された前記流体領域に存在する前記流体の属性情報を解析する段階と、
を含む処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021202018A JP2023087562A (ja) | 2021-12-13 | 2021-12-13 | 処理装置、処理プログラム及び処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021202018A JP2023087562A (ja) | 2021-12-13 | 2021-12-13 | 処理装置、処理プログラム及び処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023087562A true JP2023087562A (ja) | 2023-06-23 |
Family
ID=86850956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021202018A Pending JP2023087562A (ja) | 2021-12-13 | 2021-12-13 | 処理装置、処理プログラム及び処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023087562A (ja) |
-
2021
- 2021-12-13 JP JP2021202018A patent/JP2023087562A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11650659B2 (en) | User input processing with eye tracking | |
US10803315B2 (en) | Electronic device and method for processing information associated with food | |
US11775078B2 (en) | Resource-responsive motion capture | |
US10366300B1 (en) | Systems and methods regarding 2D image and 3D image ensemble prediction models | |
US11068754B1 (en) | Systems and methods regarding image distification and prediction models | |
US11670097B2 (en) | Systems and methods for 3D image distification | |
JP6749655B1 (ja) | 検査装置、異常検出方法、コンピュータプログラム、学習モデルの生成方法、及び学習モデル | |
EP3376433A1 (en) | Image processing apparatus, image processing method, and image processing program | |
EP4044907A1 (en) | Automatic pressure ulcer measurement | |
JP2018147286A (ja) | 対象物解析装置、対象物解析方法、学習装置及び学習方法 | |
CN115482322A (zh) | 生成合成训练数据集的计算机实现方法和系统 | |
JP2023087562A (ja) | 処理装置、処理プログラム及び処理方法 | |
JP6311461B2 (ja) | 視線分析システムおよび視線分析装置 | |
JP7443929B2 (ja) | 医療診断支援装置、医療診断支援プログラム、および医療診断支援方法 | |
WO2022241574A1 (en) | Texture mapping to polygonal models for industrial inspections | |
KR20190113351A (ko) | 머신러닝 알고리즘을 이용한 의료영상 분석장치 | |
WO2023188919A1 (ja) | スクリュ構成推定装置、スクリュ構成推定方法及びコンピュータプログラム | |
US20240169706A1 (en) | Data creation apparatus, storage device, data processing system, data creation method, and program | |
TW202407639A (zh) | 螺件裝配誤差檢測裝置、螺件裝配誤差檢測方法及電腦程式產品 | |
Stenerlöw | Artefact detection in microstructures using image analysis | |
JP2023128693A (ja) | 情報処理装置、解析プログラム、および解析方法 | |
Sulik et al. | Blood Detection in Biomedical Images using a Software Analysis | |
Wu et al. | The Study of Visual Self-adaptive Controlled MeanShift Algorithm | |
CN117409038A (zh) | 一种眼动追踪方法、装置、电子设备及计算机存储介质 | |
CN115131592A (zh) | 眼底图像分类的阅片系统及阅片方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20240319 |