JP7350622B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7350622B2
JP7350622B2 JP2019196727A JP2019196727A JP7350622B2 JP 7350622 B2 JP7350622 B2 JP 7350622B2 JP 2019196727 A JP2019196727 A JP 2019196727A JP 2019196727 A JP2019196727 A JP 2019196727A JP 7350622 B2 JP7350622 B2 JP 7350622B2
Authority
JP
Japan
Prior art keywords
information
image
processing
state
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019196727A
Other languages
English (en)
Other versions
JP2021071808A (ja
Inventor
連秀 梁
博之 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2019196727A priority Critical patent/JP7350622B2/ja
Publication of JP2021071808A publication Critical patent/JP2021071808A/ja
Application granted granted Critical
Publication of JP7350622B2 publication Critical patent/JP7350622B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理方法及びプログラムに関する。
画像等の入力データを学習済の機械学習モデルに入力することにより当該入力データに係る推定結果を取得し、当該取得した推定結果の根拠をユーザに提示するための手法が近年提案されている。
しかし、従来から知られている手法によれば、例えば、前述の推定結果の根拠を構成する複数の因子間の関係性をユーザに認識させることが困難である、という問題点がある。また、従来から知られている手法によれば、例えば、前述の推定結果の根拠を構成する各因子に係る包括的な説明を行うことができない、という問題点がある。
日本国特開2019-56983号公報 日本国特開2018-180794号公報
富士 秀 他、"Deep Tensorとナレッジグラフを融合した説明可能なAI"、[online]、[令和1年10月28日検索]、インターネット<URL:https://www.fujitsu.com/jp/documents/about/resources/publications/magazine/backnumber/vol69-4/paper14.pdf>
実施形態は、学習済の機械学習モデルにより得られた推定結果に関連する情報をユーザが認識し易い形態で提示することが可能な画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
実施形態の画像処理装置は、部分状態推定部と、統合状態推定部と、表示処理部と、を有する。前記部分状態推定部は、元画像を分割して得られた複数の部分画像を学習済の機械学習モデルに個別に入力することにより、前記機械学習モデルから出力結果として、前記複数の部分画像のうちの一の部分画像内において特異な状態が発生していると推定される注目領域の位置及び個数を特定可能な部分状態推定結果を取得するとともに、前記注目領域の状態を説明可能な文字列を有する部分状態説明情報を生成する。前記統合状態推定部は、前記部分状態推定結果及び前記部分状態説明情報のうちの少なくとも一方を用い、前記元画像内において発生していると推定される状態を説明可能な文字列を含む統合状態説明情報を生成するためのルールベースの処理を行う。前記表示処理部は、前記複数の部分画像のうちの1つ以上の部分画像を用いて生成された表示画像に含まれる前記注目領域を視認可能とするための非言語的な視覚情報と、前記統合状態説明情報に含まれる文字列である統合状態説明文と、を併せて表示させるための処理を行う。前記機械学習モデルは、複数の学習用データを用いて学習済みであり、前記学習用データは、学習画像と、マーキング情報と、注目領域説明情報と、を有する。前記マーキング情報及び前記注目領域説明情報は、学習画像に含まれる被写体を目視等で確認した作業者の判断により作成及び付加されており、前記マーキング情報は、前記画像の前記注目領域の位置及び個数を特定可能である。前記注目領域説明情報は、前記注目領域の状態を説明するための文字列を有する領域個別情報と、複数の注目領域各々の状態の関係性に基づいて特定される状態を説明するための文字列を有する領域関係性情報と、を含んでいる。前記ルールベースの処理は、予めルール格納部に格納されているルール情報に基づき行われる演算処理であり、前記ルール情報には、専門家の知識に基づいて設定された、処理優先度、処理内容、処理結果、及び、説明情報が予め設定されている。前記統合状態推定部は、前記処理優先度の順に、前記処理内容の処理を行い、前記処理結果に応じた前記説明情報から、前記統合状態説明情報を生成する。
実施形態に係る画像処理装置を含む画像処理システムの構成の一例を示す図。 実施形態に係る画像処理装置の構成の一例を示す図。 実施形態に係る画像処理装置における機械学習モデルの学習時に用いられる学習用データを説明するための図。 実施形態に係る画像処理装置の処理に用いられるテーブルデータの一例を示す図。 実施形態に係る画像処理装置において行われる処理の具体例を示すフローチャート。 実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 部分画像とヒートマップとの間の関係を説明するための図。 実施形態に係る画像処理装置の処理により表示可能な表示画像の一例を示す図。 実施形態に係る画像処理装置の処理により表示可能な表示画像の一例を示す図。 実施形態に係る画像処理装置の処理により表示可能な表示画像の一例を示す図。 実施形態に係る画像処理装置の処理により表示可能な表示画像の一例を示す図。
以下、実施形態について、図面を参照しつつ説明を行う。
図1から図12は、実施形態に係るものである。
画像処理システム101は、図1に示すように、撮像装置1と、画像処理装置2と、入力I/F(インターフェース)3と、表示装置4と、を有して構成されている。図1は、実施形態に係る画像処理装置を含む画像処理システムの構成の一例を示す図である。
撮像装置1は、例えば、イメージセンサを有して構成されている。また、撮像装置1は、被写体を撮像して画像を取得するとともに、当該取得した画像を画像処理装置2へ出力するように構成されている。なお、本実施形態においては、説明の便宜上、撮像装置1から画像処理装置2へ出力される画像を元画像と称するものとする。
画像処理装置2は、例えば、1つ以上のプロセッサ201と、記憶媒体202と、を有するコンピュータとして構成されている。また、画像処理装置2は、撮像装置1から出力される元画像に対して処理を施すことにより表示画像を生成するとともに、当該生成した表示画像を表示装置4へ出力するように構成されている。また、画像処理装置2は、入力I/F3から出力される指示を検出し、当該検出した指示に応じた表示画像等を生成して表示装置4へ出力するように構成されている。
入力I/F3は、例えば、マウス、キーボード及びタッチパネル等のような、ユーザにより操作可能な入力デバイスを有して構成されている。また、入力I/F3は、表示装置4に表示される表示画像に含まれるメイン画像(後述)の拡大率を所望の拡大率に設定するための指示を行うことができるように構成されている。また、入力I/F3は、メイン画像を表示装置4の表示画面に表示する際の中心点に相当するとともに、当該メイン画像の拡大率を変更する際の基準点に相当する注目位置を設定するための指示を行うことができるように構成されている。
表示装置4は、例えば、液晶モニタ等を有して構成されている。また、表示装置4は、画像処理装置2から出力される表示画像及び表示情報等を表示することができるように構成されている。
画像処理装置2は、例えば、図2に示すように、分割処理部21と、部分状態推定部22と、活性化度検出部23と、統合処理部24と、統合状態推定部25と、処理結果格納部26と、表示処理部27と、を有して構成されている。図2は、実施形態に係る画像処理装置の構成の一例を示す図である。
分割処理部21は、撮像装置1から出力される元画像を所定の方法で分割することによりP(P≧2)個の部分画像を生成するとともに、当該生成したP個の部分画像を部分状態推定部22へ順次出力するように構成されている。
部分状態推定部22は、分割処理部21から出力されるP個の部分画像を学習済の機械学習モデル22Aに個別に入力することにより、当該P個の部分画像のうちの一の部分画像内において特異な状態が発生していると推定される注目領域の位置及び個数を特定可能な部分状態推定結果を取得するとともに、当該注目領域の状態を説明可能な文字列を有する部分状態説明情報を生成するように構成されている。また、部分状態推定部22は、前述の部分状態推定結果と、前述の部分状態推定結果を取得するために機械学習モデル22Aに入力した一の部分画像と、を活性化度検出部23へ出力するように構成されている。また、部分状態推定部22は、前述の部分状態推定結果と、前述の部分状態説明情報と、前述の部分状態推定結果を取得するために機械学習モデル22Aに入力した一の部分画像と、を統合処理部24及び処理結果格納部26へそれぞれ出力するように構成されている。
機械学習モデル22Aは、入力層と、CNN(畳み込みニューラルネットワーク)及びRNN(再帰型ニューラルネットワーク)等を用いて形成された隠れ層と、出力層と、を有して構成されている。また、機械学習モデル22Aは、セマンティックセグメンテーション(画像における画素単位の領域分類)及びイメージキャプション(画像内に含まれる被写体に応じた説明を行うための文字列の生成)に係る機能を有するマルチモーダルモデルとして構成されている。具体的には、機械学習モデル22Aは、例えば、図3に示すような学習用データ31を用い、DenseCap等のような(マルチモーダルな)深層学習モデルに対してファインチューニングを施したモデルとして構成されている。図3は、実施形態に係る画像処理装置における機械学習モデルの学習時に用いられる学習用データを説明するための図である。
学習用データ31には、例えば、分割処理部21における分割方法と同様の方法で元画像を分割して得られた一の部分画像に相当する学習画像31Aと、学習画像31A内におけるK個の注目領域の位置及び個数を特定可能な枠等に相当するマーキング情報31Bと、当該K個の注目領域の状態を説明するための文字列を有する注目領域説明情報31Cと、が含まれている。また、注目領域説明情報31Cには、マーキング情報31Bにより特定されるK個の注目領域各々の状態を説明するための文字列を有する領域個別情報41と、マーキング情報31Bにより特定されるK個の注目領域の中から抽出した複数の注目領域各々の状態の関係性に基づいて特定される状態を説明するための文字列を有する領域関係性情報42と、が含まれている。
マーキング情報31B及び注目領域説明情報31Cは、例えば、学習画像31Aに含まれる被写体を目視等で確認した作業者の判断により作成及び付加される。
本実施形態によれば、機械学習モデル22Aの学習時において、以上に述べたような構成を有するK≧2の学習用データ31に加え、K=0及び/またはK=1の学習用データ31が併せて用いられ得る。なお、K=0の学習用データ31は、学習画像31Aを含む一方で、マーキング情報31B及び注目領域説明情報31Cを含まないデータとして構成されている。また、K=1の学習用データ31は、学習画像31Aと、マーキング情報31Bと、領域個別情報41と、を含む一方で、領域関係性情報42を含まないデータとして構成されている。
活性化度検出部23は、部分状態推定部22から出力される部分状態推定結果及び一の部分画像に基づき、当該部分状態推定結果の取得時に機械学習モデル22Aの隠れ層が活性化された度合に相当する活性化度を当該一の部分画像に含まれる画素毎に検出するための処理を行うように構成されている。また、活性化度検出部23は、前述のように検出した活性化度、すなわち、部分状態推定部22から出力される一の部分画像における画素毎の活性化度を示す活性化度情報を生成し、当該生成した活性化度情報を処理結果格納部26へ出力するように構成されている。
統合処理部24は、部分状態推定部22から出力される部分画像、部分状態推定結果及び部分状態説明情報を蓄積するように構成されている。また、統合処理部24は、P個の部分画像を蓄積した際に、撮像装置1から出力される元画像に基づいて当該P個の部分画像を結合することにより、当該元画像と同一の画像に相当する統合画像を生成するように構成されている。また、統合処理部24は、前述の統合画像と、前述の統合画像の生成に用いたP個の部分画像とともに蓄積した部分状態推定結果及び部分状態説明情報と、を併せて統合状態推定部25へ出力するように構成されている。
統合状態推定部25は、統合処理部24から出力される部分状態推定結果及び部分状態説明情報のうちの少なくとも一方を用い、統合処理部24から出力される統合画像内において発生していると推定される状態、すなわち、撮像装置1から出力される元画像内において発生していると推定される状態を説明可能な文字列を含む統合状態説明情報を生成するためのルールベースの処理を行うように構成されている。また、統合状態推定部25は、演算処理部25Aと、説明情報生成部25Bと、ルール格納部25Cと、を有して構成されている。
演算処理部25Aは、ルール格納部25Cに格納されているルール情報に基づき、統合処理部24から出力される部分状態推定結果及び部分状態説明情報のうちの少なくとも一方を用いた演算処理を行うように構成されている。
説明情報生成部25Bは、演算処理部25Aの演算処理により得られた処理結果と、ルール格納部25Cに格納されているルール情報と、に基づき、統合処理部24から出力される統合画像内において発生していると推定される状態を説明可能な文字列を含む統合状態説明情報を生成するように構成されている。また、説明情報生成部25Bは、前述の統合状態説明情報を処理結果格納部26へ出力するように構成されている。
ルール格納部25Cには、演算処理部25Aにより行われる演算処理の処理内容と、当該演算処理により得られた処理結果と、当該処理結果に対応する統合状態説明情報と、の間の関係を示すルール情報が格納されている。
具体的には、ルール格納部25Cには、ルール情報として、例えば、図4に示すようなテーブルデータTDAが格納されている。図4は、実施形態に係る画像処理装置の処理に用いられるテーブルデータの一例を示す図である。
ルール格納部25Cに格納されるルール情報は、例えば、所定の分野における専門家等の知識に基づいて設定される。
具体的には、図4のテーブルデータTDAにおいては、「処理優先度」、「処理内容」、「処理結果」及び「説明情報」の各欄に書き込まれる内容が、所定の分野における専門家等の知識に基づいて設定される。
ここで、図4のテーブルデータTDAがルール格納部25Cに格納されている場合において行われる処理の例について説明する。
演算処理部25Aは、ルール格納部25Cに格納されているテーブルデータTDAの「処理内容」欄の処理を、当該テーブルデータTDAの「処理優先度」欄に設定された順番に沿って行う。
具体的には、演算処理部25Aは、例えば、テーブルデータTDAの「処理優先度」が「1」に設定された処理として、統合処理部24から出力される部分状態説明情報に含まれる所定の説明文Xの個数をカウントする処理を行う。また、演算処理部25Aは、例えば、テーブルデータTDAの「処理優先度」が「2」に設定された処理として、統合処理部24から出力される部分状態推定結果に含まれる全ての注目領域が統合画像内において占める割合を算出する処理を行う。
説明情報生成部25Bは、演算処理部25Aの演算処理により得られた処理結果がテーブルデータTDAの「処理結果」欄の条件に該当している場合に、当該テーブルデータTDAの「処理優先度」に沿った演算処理を停止させるための制御を演算処理部25Aに対して行うとともに、当該条件に対応する説明文を当該テーブルデータTDAの「説明情報」欄から取得する処理を行う。また、説明情報生成部25Bは、テーブルデータTDAの「説明情報」欄から取得した説明文を含む統合状態説明情報を生成し、当該生成した統合状態説明情報を処理結果格納部26へ出力する処理を行う。
具体的には、説明情報生成部25Bは、例えば、統合処理部24から出力される部分状態説明情報に含まれる所定の説明文Xの個数がTA個以上であるとの処理結果が得られた場合には、テーブルデータTDAの「処理優先度」が「2」以上に設定された演算処理を停止させるための制御を演算処理部25Aに対して行うとともに、テーブルデータTDAの「説明情報」欄から説明文YAを取得する処理を行う。また、統合処理部24から出力される部分状態推定結果に含まれる全ての注目領域が統合画像内において占める割合がTB%以上であるとの処理結果が得られた場合には、テーブルデータTDAの「処理優先度」が「3」以上に設定された演算処理を停止させるための制御を演算処理部25Aに対して行うとともに、テーブルデータTDAの「説明情報」欄から説明文YBを取得する処理を行う。
なお、説明情報生成部25Bは、例えば、テーブルデータTDAの「処理内容」欄の各処理が「処理優先度」欄に設定された順番に沿って行われることにより得られた処理結果が当該テーブルデータTDAの「処理結果」欄のいずれの条件にも該当しないことを検出した場合に、当該テーブルデータTDAから所定の説明文YNを取得するための処理を行うものとする。また、説明文YNは、例えば、「問題なし」等のような、統合処理部24から出力される統合画像内において説明を要する状態が発生していないことを示す文字列を有していればよい。また、テーブルデータTDAの「説明情報」欄における説明文YN以外の説明文は、統合処理部24から出力される部分状態推定結果及び部分状態説明情報のうちの少なくとも一方に基づいて特定される統合画像の状態を説明可能な文字列を有していればよい。
処理結果格納部26は、部分状態推定部22から出力されるP個の部分画像と、当該P個の部分画像各々に対応する部分状態推定結果及び部分状態説明情報と、活性化度検出部23から出力される活性化度情報と、統合状態推定部25から出力される統合状態説明情報と、を関連付けて格納するように構成されている。
表示処理部27は、情報取得部27Aと、表示画像生成部27Bと、表示情報生成部27Cと、表示制御部27Dと、を有して構成されている。
情報取得部27Aは、入力I/F3において行われた指示を検出するとともに、当該検出した指示に基づいて表示画像生成部27B、表示情報生成部27C及び表示制御部27Dの処理に用いられる情報を取得するための処理を行うように構成されている。具体的には、情報取得部27Aは、入力I/F3において行われた指示の検出結果に基づき、表示装置4に表示されているメイン画像の拡大率を示す情報と、当該メイン画像内において設定された注目位置を示す情報と、をそれぞれ取得するための処理を行うように構成されている。
表示画像生成部27Bは、処理結果格納部26に格納されているP個の部分画像のうちの少なくとも1つの部分画像を用い、情報取得部27Aにより取得された情報に含まれる拡大率及び注目位置に応じたメイン画像を生成するように構成されている。すなわち、表示画像生成部27Bにより生成されたメイン画像は、情報取得部27Aにより取得された情報に含まれる注目位置と表示画面の中心とが一致し、かつ、当該情報に含まれる拡大率を有する画像として表示装置4に表示される。また、表示画像生成部27Bは、例えば、撮像装置1から出力される元画像を縮小することによりサブ画像を生成するように構成されている。また、表示画像生成部27Bは、説明の表示の有無の切り替えに係る指示を行うことが可能な説明表示切替用GUI(グラフィカルユーザインターフェース)を生成するように構成されている。また、表示画像生成部27Bは、後述の統合状態説明文を表示するための説明文表示欄を生成するように構成されている。また、表示画像生成部27Bは、メイン画像の内部の所定の領域にサブ画像を重畳するとともに、当該メイン画像の外部に説明表示切替用GUI及び説明文表示欄を配置することにより表示画像を生成するように構成されている。また、表示画像生成部27Bは、後述の注目領域枠が表示情報生成部27Cにより生成された場合に、当該注目領域枠をメイン画像に重畳するように構成されている。また、表示画像生成部27Bは、撮像装置1から出力される元画像と、情報取得部27Aにより取得された情報に含まれる拡大率及び注目位置と、に基づき、表示装置4に表示されているメイン画像の表示範囲を当該元画像の中から特定するとともに、当該特定した表示範囲を示す表示範囲枠をサブ画像に重畳するように構成されている。
表示情報生成部27Cは、処理結果格納部26から読み込んだ情報に応じた表示情報を生成するように構成されている。具体的には、表示情報生成部27Cは、処理結果格納部26から読み込んだ部分状態推定結果に基づき、メイン画像に1つ以上の注目領域が含まれていることを検出した際に、当該1つ以上の注目領域の周囲を領域毎に囲む注目領域枠を生成するように構成されている。また、表示情報生成部27Cは、処理結果格納部26から読み込んだ部分状態推定結果及び部分状態説明情報に基づき、メイン画像に1つ以上の注目領域が含まれていることを検出した際に、当該部分状態説明情報に含まれる文字列に応じた部分状態説明文を生成するように構成されている。なお、本実施形態によれば、前述の部分状態説明文が、例えば、処理結果格納部26から読み込んだ統合状態説明情報に含まれる文字列から抽出した単語または熟語として生成されるものであってもよい。また、表示情報生成部27Cは、処理結果格納部26から読み込んだ部分状態推定結果及び活性化度情報に基づき、メイン画像に1つ以上の注目領域が含まれていることを検出した際に、当該1つ以上の注目領域に対応するヒートマップ(後述)を生成するように構成されている。また、表示情報生成部27Cは、処理結果格納部26から読み込んだ統合状態説明情報に含まれる文字列に応じた統合状態説明文を生成するように構成されている。
表示制御部27Dは、表示画像生成部27Bにより生成された表示画像を表示装置4に表示させるための処理を行うように構成されている。また、表示制御部27Dは、説明表示切替用GUIの操作状態に基づき、説明を表示させるための指示が入力I/F3において行われたことを検出した際に、統合状態説明文を説明文表示欄に表示させるための処理を行うように構成されている。また、表示制御部27Dは、説明表示切替用GUIの操作状態に基づき、説明を表示させるための指示が入力I/F3において行われたことを検出した際に、表示情報生成部27Cにより生成された一の注目領域に対応する部分状態説明文及びヒートマップを当該一の注目領域の近傍に併せて表示させるための処理を行うように構成されている。
なお、本実施形態においては、画像処理装置2の各部の機能が、プロセッサ201及び記憶媒体202を含むハードウェアにより実現されるようにしてもよい。または、本実施形態においては、例えば、画像処理装置2の各部の機能を実現するためのプログラムが記憶媒体202に格納されているとともに、プロセッサ201が当該プログラムを読み込んで実行するようにしてもよい。コンピュータ読取可能な記憶媒体202としては、CD-ROM等の光ディスク、DVD-ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記憶媒体として含まれる。
続いて、本実施形態の作用について、図5等を参照しつつ説明する。図5は、実施形態に係る画像処理装置において行われる処理の具体例を示すフローチャートである。
なお、本実施形態においては、所定の金属の金属組織を被写体として撮像して得られた元画像が撮像装置1から画像処理装置2へ出力されるとともに、当該元画像に応じたP個の部分画像が分割処理部21により生成される場合を例に挙げて説明する。また、本実施形態においては、分割処理部21から出力される一の部分画像を学習済の機械学習モデル22Aに入力することにより、当該一の部分画像に含まれる金属組織の品質の低下を発生させる要因が存在すると推定される箇所を注目領域として示すような部分状態推定結果と、当該要因を説明可能な説明文を有する部分状態説明情報と、が取得されるものとして説明する。
表示画像生成部27Bは、情報取得部27Aにより取得された情報に含まれる拡大率及び注目位置に基づき、処理結果格納部26に格納されているP個の部分画像のうちの少なくとも1つの部分画像を用い、メイン画像と、サブ画像と、説明表示切替用GUIと、説明文表示欄と、を有する表示画像を生成するための処理を行う(図5のステップS1)。
ここで、図5のステップS1の処理が行われた場合には、例えば、図6に示すような表示画像DGAが表示装置4に表示される。図6は、実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
表示画像DGAは、メイン画像MGA及びサブ画像SGAを有している。また、表示画像DGAの上部かつメイン画像MGAの外部に相当する部分には、説明表示切替用GUIとしてのチェックボックスCBが設けられている。なお、図6においては、チェックボックスCBにチェックが入っていない状態、すなわち、説明を表示させるための指示が行われていない状態を示している。また、表示画像DGAの下部かつメイン画像MGAの外部に相当する部分には、説明文表示欄DCが設けられている。また、表示画像DGAにおいては、処理結果格納部26に格納されている部分状態推定結果により示される注目領域IRAを囲む注目領域枠IGAがメイン画像MGAに重畳されている。また、表示画像DGAにおいては、撮像装置1から出力される元画像の中央部付近がメイン画像MGAの表示範囲であることを示す矩形の表示範囲枠FGAがサブ画像SGAの内部に重畳されている。
メイン画像MGAは、撮像装置1から出力される元画像の中央部付近を注目位置として設定した状態において、情報取得部27Aにより取得された情報に含まれる拡大率に応じて当該元画像を拡大した画像に相当する。
サブ画像SGAは、撮像装置1から出力される元画像を縮小した画像に相当する。
表示制御部27Dは、図5のステップS1の処理が行われた後に、説明表示切替用GUIの操作状態に基づき、説明を表示させるための指示が入力I/F3において行われたか否かに係る判定処理を行う(図5のステップS2)。
表示制御部27Dは、説明を表示させるための指示が入力I/F3において行われたとの判定結果を得た(S2:YES)場合には、表示情報生成部27Cにより生成された統合状態説明文を説明文表示欄に表示させるための処理(図5のステップS3)と、表示情報生成部27Cにより生成された一の注目領域に対応する部分状態説明文及びヒートマップを当該一の注目領域の近傍に表示させるための処理(図5のステップS4)と、を行った後、一連の処理を終了させる。また、表示制御部27Dは、説明を表示させるための指示が入力I/F3において行われていないとの判定結果を得た(S2:NO)場合には、図5のステップS3及びステップS4の処理をスキップして一連の処理を終了させる。
ここで、表示画像DGAが表示装置4に表示されている状態で図5のステップS3及びステップS4の処理が行われた場合には、例えば、図7に示すような表示画像DGBが表示装置4に表示される。図7は、実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
表示画像DGBは、メイン画像MGB及びサブ画像SGAを有している。なお、図7においては、チェックボックスCBにチェックが入っている状態、すなわち、説明を表示させるための指示が行われた状態の例を示している。また、表示画像DGBにおける説明文表示欄DCには、撮像装置1から出力される元画像内において発生していると推定される状態を説明するための統合状態説明文IEAが表示されている。
メイン画像MGBは、メイン画像MGAにおける注目領域IRAの近傍に当該注目領域IRAを指し示す形状を有する吹き出しFKAを追加した画像に相当する。
吹き出しFKAの内部には、注目領域枠IGAにより囲まれている注目領域IRAにおいて発生していると推定される特異な状態を説明するための部分状態説明文PEA及びヒートマップHMAが併せて表示されている。
部分状態説明文PEAは、機械学習モデル22Aの学習時に用いられる学習用データ31の領域個別情報41の内容に応じた文として表示される。そのため、本実施形態によれば、図7の部分状態説明文PEAとして例示した文(「析出物が存在する」)とは異なる文が吹き出しFKAの内部に表示され得る。
統合状態説明文IEAは、ルール格納部25Cに格納されているルール情報(テーブルデータTDAの「説明情報」欄)の内容に応じた文として表示される。そのため、本実施形態によれば、図7の統合状態説明文IEAとして例示した文(「析出物が多数あり、それらが全体の2割を占めるため、不良と判断する」)とは異なる文が説明文表示欄DCに表示され得る。
ヒートマップHMAは、例えば、図8に示すように、注目領域IRAを含む一の部分画像BGAの各画素を、活性化度検出部23により検出された活性化度の高さに応じて色分けした活性化度画像として生成される。図8は、部分画像とヒートマップとの間の関係を説明するための図である。
具体的には、ヒートマップHMAは、例えば、注目領域IRAに含まれる画素を赤色及び黄色等の暖色で着色するとともに、注目領域IRAに含まれない画素を青色及び水色等の寒色で着色した画像として生成される。換言すると、ヒートマップHMAは、一の部分画像BGAが部分状態推定部22に入力された場合において、機械学習モデル22Aの隠れ層の活性化度が所定値以上になった画素を赤色及び黄色等の暖色で着色するとともに、当該隠れ層の活性化度が当該所定値未満になった画素を青色及び水色等の寒色で着色した画像として生成される。なお、図8のヒートマップHMAにおいては、図示の便宜上、注目領域IRAに含まれる画素(暖色で着色された画素)に対して濃度の高いハッチングパターンを付与しているとともに、注目領域IRAに含まれない画素(寒色で着色された画素)に対して濃度の低いハッチングパターンを付与している。
本実施形態によれば、チェックボックスCBにチェックが入っている状態において、吹き出しFKAが常に表示されるものに限らず、例えば、入力I/F3からの指示に応じて当該吹き出しFKAの表示状態が切り替わるようにしてもよい。具体的には、例えば、チェックボックスCBにチェックが入っている状態において、注目領域IRAを選択する指示が入力I/F3において行われる毎に、部分状態説明文PEA及びヒートマップHMAを内部に配置した吹き出しFKAが表示される状態と、当該吹き出しFKAが表示されない状態と、を交互に切り替えるようなトグル動作が行われるようにしてもよい。
なお、本実施形態においては、図5のフローチャートに示した処理を適宜変形することにより、例えば、ステップS4の後でステップS3の処理が行われるようにしてもよい。また、本実施形態においては、図5のフローチャートに示した処理を適宜変形することにより、例えば、ステップS3及びステップS4の処理が並行して行われるようにしてもよい。
以上に述べた処理等によれば、表示処理部27は、処理結果格納部26に格納されている複数の部分画像のうちの1つ以上の部分画像を用いて生成された表示画像DGBのメイン画像MGBに含まれる注目領域IRAを視認可能とするための非言語的な視覚情報に相当する注目領域枠IGAと、処理結果格納部26から読み込んだ統合状態説明情報に含まれる文字列に応じて生成した統合状態説明文IEAと、を併せて表示させるための処理を行う。また、以上に述べた処理等によれば、表示処理部27は、注目領域枠IGAと、統合状態説明文IEAと、処理結果格納部26から読み込んだ部分状態説明情報に含まれる文字列に応じて生成した部分状態説明文PEAと、を併せて表示させるための処理を行う。また、以上に述べた処理等によれば、表示処理部27は、処理結果格納部26から読み込んだ部分状態推定結果及び活性化度情報に基づき、注目領域IRAを含む一の部分画像BGAの各画素を、活性化度検出部23により検出された活性化度の高さに応じて色分けしたヒートマップHMA(活性化度画像)を生成するための処理を行うとともに、当該ヒートマップHMA及び部分状態説明文PEAを併せて表示させるための処理を行う。
本実施形態によれば、例えば、撮像装置1から出力される元画像のうちの統合状態説明文による説明が適用される範囲を示す説明範囲枠を生成するための処理が表示情報生成部27Cにより行われるとともに、当該説明範囲枠をサブ画像に重畳するための処理が表示制御部27Dにより行われるようにしてもよい。そして、このような処理によれば、例えば、図9に示すような、表示画像DGBにおけるサブ画像SGAの周囲を囲む説明範囲枠TGAが追加された表示画像DGCを表示装置4に表示させることができる。すなわち、表示画像DGCにおいては、統合状態説明文IEAによる説明が適用される範囲が撮像装置1から出力される元画像の全域であることを示す説明範囲枠TGAがサブ画像SGAの周囲に表示されている。図9は、実施形態に係る画像処理装置の処理により表示可能な表示画像の一例を示す図である。
本実施形態によれば、例えば、ルール格納部25Cに格納されるルール情報を適宜設定することにより、撮像装置1から出力される元画像のうちのユーザの所望の範囲において発生していると推定される状態を説明するための文字列を含む情報を統合状態説明情報として生成するための処理が説明情報生成部25Bにより行われ、当該統合状態説明情報に含まれる文字列に応じた統合状態説明文を生成するための処理と、当該所望の範囲を示す説明範囲枠を表示するための処理と、が表示情報生成部27Cにより行われ、当該説明範囲枠をサブ画像に重畳するための処理が表示制御部27Dにより行われるようにしてもよい。そして、このような処理によれば、例えば、図10に示すような、表示画像DGBにおけるサブ画像SGAの内部に説明範囲枠TGBが追加されるとともに、統合状態説明文IEAとは異なる統合状態説明文IEBが説明文表示欄DCに表示された表示画像DGDを表示装置4に表示させることができる。図10は、実施形態に係る画像処理装置の処理により表示可能な表示画像の一例を示す図である。
本実施形態によれば、例えば、ヒートマップを非表示にさせるための指示が入力I/F3において行われた場合等に、図5のステップS4の処理のうちのヒートマップの表示に係る処理を省略することができる。また、本実施形態によれば、ヒートマップの表示に係る処理を省略した場合において、図5のステップS1の処理に応じて図11に示すような表示画像DGEを表示装置4に表示させることができるとともに、図5のステップS4の処理に応じて図12に示すような表示画像DGFを表示させることができる。
表示画像DGEは、メイン画像MGC及びサブ画像SGAを有している。なお、図11においては、チェックボックスCBにチェックが入っていない状態、すなわち、説明を表示させるための指示が行われていない状態を示している。また、表示画像DGEにおいては、処理結果格納部26に格納されている部分状態推定結果により示される注目領域IRBを囲む注目領域枠IGBと、当該部分状態推定結果により示される注目領域IRCを囲む注目領域枠IGCと、当該部分状態推定結果により示される注目領域IRDを囲む注目領域枠IGDと、がメイン画像MGCに重畳されている。また、表示画像DGEにおいては、撮像装置1から出力される元画像の右上部がメイン画像MGCの表示範囲であることを示す矩形の表示範囲枠FGBがサブ画像SGAの内部に重畳されている。
メイン画像MGCは、撮像装置1から出力される元画像の右上部を注目位置として設定した状態において、情報取得部27Aにより取得された情報に含まれる拡大率に応じて当該元画像を拡大した画像に相当する。
表示画像DGFは、メイン画像MGD及びサブ画像SGAを有している。なお、図12においては、チェックボックスCBにチェックが入っている状態、すなわち、説明を表示させるための指示が行われた状態の例を示している。また、表示画像DGFにおける説明文表示欄DCには、表示画像DGBと同じ内容の統合状態説明文IEAが表示されている。
メイン画像MGDは、メイン画像MGCにおける注目領域IRBの近傍に当該注目領域IRBを指し示す形状を有する吹き出しFKBを追加し、当該メイン画像MGCにおける注目領域IRCの近傍に当該注目領域IRCを指し示す形状を有する吹き出しFKCを追加し、当該メイン画像MGCにおける注目領域IRDの近傍に当該注目領域IRDを指し示す形状を有する吹き出しFKDを追加した画像に相当する。
吹き出しFKBの内部には、注目領域枠IGBにより囲まれている注目領域IRBにおいて発生していると推定される特異な状態を説明するための部分状態説明文PEBが表示されている。また、吹き出しFKCの内部には、注目領域枠IGCにより囲まれている注目領域IRCにおいて発生していると推定される特異な状態を説明するための部分状態説明文PECが表示されている。
部分状態説明文PEB及びPECは、機械学習モデル22Aの学習時に用いられる学習用データ31の領域個別情報41の内容に応じた文として表示される。そのため、本実施形態によれば、図12の部分状態説明文PEBとして例示した文(「析出物が存在する」)とは異なる文が吹き出しFKBの内部に表示され得る。また、本実施形態によれば、図12の部分状態説明文PECとして例示した文(「線状組織が存在する」)とは異なる文が吹き出しFKCの内部に表示され得る。
吹き出しFKDの内部には、注目領域IRDに含まれる(注目領域枠IGDの内部に存在する)注目領域IRBにおいて発生していると推定される状態と、当該注目領域IRDに含まれる注目領域IRCにおいて発生していると推定される状態と、の間の関係性に基づいて特定される状態を説明するための部分状態説明文PEDが表示されている。
部分状態説明文PEDは、機械学習モデル22Aの学習時に用いられる学習用データ31の領域関係性情報42の内容に応じた文として表示される。そのため、本実施形態によれば、図12の部分状態説明文PEDとして例示した文(「品質低下のおそれあり」)とは異なる文が吹き出しFKDの内部に表示され得る。
以上に述べた処理等によれば、表示処理部27は、処理結果格納部26に格納されている複数の部分画像のうちの1つ以上の部分画像を用いて生成された表示画像DGFのメイン画像MGDに含まれる注目領域IRB、IRC及びIRDを視認可能とするための非言語的な視覚情報に相当する注目領域枠IGB、IGC及びIGDと、処理結果格納部26から読み込んだ統合状態説明情報に含まれる文字列に応じて生成した統合状態説明文IEAと、を併せて表示させるための処理を行う。また、以上に述べた処理等によれば、表示処理部27は、注目領域枠IGB、IGC及びIGDと、統合状態説明文IEAと、処理結果格納部26から読み込んだ部分状態説明情報に含まれる文字列に応じて生成した部分状態説明文PEB、PEC及びPEDと、を併せて表示させるための処理を行う。
以上に述べたように、本実施形態によれば、学習済の機械学習モデル22Aの処理結果として得られた部分状態推定結果により示される1つ以上の注目領域において発生していると推定される状態を説明するための情報として、部分状態説明文(及びヒートマップ)を表示装置4に表示させることができる。また、以上に述べたように、本実施形態によれば、学習済の機械学習モデル22Aの処理結果として得られた部分状態推定結果及び部分状態説明情報のうちの少なくとも一方を用い、ルール格納部25Cに格納されているルール情報に基づいて処理を行うことにより、撮像装置1から出力される元画像内において発生していると推定される状態を説明するための情報として、統合状態説明文を表示装置4に表示させることができる。従って、本実施形態によれば、学習済の機械学習モデルにより得られた推定結果に関連する情報をユーザが認識し易い形態で提示することができる。
本実施形態によれば、例えば、部分状態推定部22が、機械学習モデル22A及び活性化度検出部23の機能を併せ持つ学習済の機械学習モデルに複数の部分画像を個別に入力することにより、当該複数の部分画像のうちの一の部分画像内において特異な状態が発生していると推定される注目領域の位置及び個数を特定可能な部分状態推定結果を取得し、当該注目領域の状態を説明可能な文字列を有する部分状態説明情報を生成するとともに、当該部分状態推定結果の取得時に当該学習済の機械学習モデルの隠れ層が活性化された度合に相当する活性化度を当該一の部分画像に含まれる画素毎に検出した活性化度情報を生成するようにしてもよい。なお、このような場合には、学習済の機械学習モデルとして、例えば、DenseCapの隠れ層にAttention Branch Networkを組み込んだ深層学習モデルを学習用データ31により機械学習させたモデルを用いることができる。また、Attention Branch Networkの詳細については、例えば、Hiroshi Fukui 他3名,“Attention Branch Network:Learning of Attention Mechanism for Visual Explanation”、[online]、[令和1年10月28日検索]、インターネット<URL:https://arxiv.org/pdf/1812.10025.pdf>等のような文献において説明されている。
本発明の実施形態を説明したが、これらの実施形態は、例として示したものであり、本発明の範囲を限定することは意図していない。これら新規の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 撮像装置
2 画像処理装置
3 入力インターフェース
4 表示装置
21 分割処理部
22 部分状態推定部
22A 機械学習モデル
23 活性化度検出部
24 統合処理部
25 統合状態推定部
25A 演算処理部
25B 説明情報生成部
25C ルール格納部
26 処理結果格納部
27 表示処理部
27A 情報取得部
27B 表示画像生成部
27C 表示情報生成部
27D 表示制御部
101 画像処理システム

Claims (7)

  1. 元画像を分割して得られた複数の部分画像を学習済の機械学習モデルに個別に入力することにより、前記機械学習モデルから出力結果として、前記複数の部分画像のうちの一の部分画像内において特異な状態が発生していると推定される注目領域の位置及び個数を特定可能な部分状態推定結果を取得するとともに、前記注目領域の状態を説明可能な文字列を有する部分状態説明情報を生成する部分状態推定部と、
    前記部分状態推定結果及び前記部分状態説明情報のうちの少なくとも一方を用い、前記元画像内において発生していると推定される状態を説明可能な文字列を含む統合状態説明情報を生成するためのルールベースの処理を行う統合状態推定部と、
    前記複数の部分画像のうちの1つ以上の部分画像を用いて生成された表示画像に含まれる前記注目領域を視認可能とするための非言語的な視覚情報と、前記統合状態説明情報に含まれる文字列である統合状態説明文と、を併せて表示させるための処理を行う表示処理部と、を有し、
    前記機械学習モデルは、複数の学習用データを用いて学習済みであり、前記学習用データは、学習画像と、マーキング情報と、注目領域説明情報と、を有し、
    前記マーキング情報及び前記注目領域説明情報は、前記学習画像に含まれる被写体を目視等で確認した作業者の判断により作成及び付加されており、前記マーキング情報は、前記学習画像の前記注目領域の位置及び個数を特定可能であり、
    前記注目領域説明情報は、前記注目領域の状態を説明するための文字列を有する領域個別情報と、複数の注目領域各々の状態の関係性に基づいて特定される状態を説明するための文字列を有する領域関係性情報と、を含んでおり、
    前記ルールベースの処理は、予めルール格納部に格納されているルール情報に基づき行われる演算処理であり、前記ルール情報には、専門家の知識に基づいて設定された、処理優先度、処理内容、処理結果、及び、説明情報が予め設定されており、
    前記統合状態推定部は、前記処理優先度の順に、前記処理内容の処理を行い、前記処理結果に応じた前記説明情報から、前記統合状態説明情報を生成することを特徴とする画像処理装置。
  2. 前記表示処理部は、前記視覚情報と、前記統合状態説明文と、前記部分状態説明情報に含まれる文字列である部分状態説明文と、を併せて表示させるための処理を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記部分状態推定結果及び前記一の部分画像に基づき、前記部分状態推定結果の取得時に前記機械学習モデルの隠れ層が活性化された度合に相当する活性化度を前記一の部分画像に含まれる画素毎に検出するための処理を行うことにより活性化度情報を生成する活性化度検出部をさらに有し、
    前記表示処理部は、前記活性化度情報に基づき、前記注目領域を含む前記一の部分画像の各画素を、前記活性化度の高さに応じて色分けした活性化度画像を生成するための処理を行うとともに、前記活性化度画像及び前記部分状態説明文を併せて表示させるための処理を行うことを特徴とする請求項2に記載の画像処理装置。
  4. 前記部分状態推定部は、前記複数の部分画像を前記機械学習モデルに個別に入力することにより、前記部分状態推定結果を取得し、前記部分状態説明情報を生成するとともに、前記部分状態推定結果の取得時に前記機械学習モデルの隠れ層が活性化された度合に相当する活性化度を前記一の部分画像に含まれる画素毎に検出した活性化度情報を生成し、
    前記表示処理部は、前記活性化度情報に基づき、前記注目領域を含む前記一の部分画像
    各画素を、前記活性化度の高さに応じて色分けした活性化度画像を生成するための処理を行うとともに、前記活性化度画像及び前記部分状態説明文を併せて表示させるための処理を行うことを特徴とする請求項2に記載の画像処理装置。
  5. 前記統合状態推定部は、前記統合状態説明情報として、前記元画像のうちの所望の範囲において発生していると推定される状態を説明するための情報を生成することを特徴とする請求項1に記載の画像処理装置。
  6. 元画像を分割して得られた複数の部分画像を学習済の機械学習モデルに個別に入力することにより、前記機械学習モデルから出力結果として、前記複数の部分画像のうちの一の部分画像内において特異な状態が発生していると推定される注目領域の位置及び個数を特定可能な部分状態推定結果を取得するとともに、前記注目領域の状態を説明可能な文字列を有する部分状態説明情報を生成し、
    前記部分状態推定結果及び前記部分状態説明情報のうちの少なくとも一方を用い、前記元画像内において発生していると推定される状態を説明可能な文字列を含む統合状態説明情報を生成するためのルールベースの処理を行い、
    前記複数の部分画像のうちの1つ以上の部分画像を用いて生成された表示画像に含まれる前記注目領域を視認可能とするための非言語的な視覚情報と、前記統合状態説明情報に含まれる文字列である統合状態説明文と、を併せて表示させるための処理を行い
    前記機械学習モデルは、複数の学習用データを用いて学習済みであり、前記学習用データは、学習画像と、マーキング情報と、注目領域説明情報と、を有し、
    前記マーキング情報及び前記注目領域説明情報は、前記学習画像に含まれる被写体を目視等で確認した作業者の判断により作成及び付加されており、前記マーキング情報は、前記学習画像の前記注目領域の位置及び個数を特定可能であり、
    前記注目領域説明情報は、前記注目領域の状態を説明するための文字列を有する領域個別情報と、複数の注目領域各々の状態の関係性に基づいて特定される状態を説明するための文字列を有する領域関係性情報と、を含んでおり、
    前記ルールベースの処理は、予めルール格納部に格納されているルール情報に基づき行われる演算処理であり、前記ルール情報には、専門家の知識に基づいて設定された、処理優先度、処理内容、処理結果、及び、説明情報が予め設定されており、
    前記ルールベースの処理の後に、前記処理優先度の順に、前記処理内容の処理を行い、前記処理結果に応じた前記説明情報から、前記統合状態説明情報を生成することを特徴とする画像処理方法。
  7. コンピュータに、
    元画像を分割して得られた複数の部分画像を学習済の機械学習モデルに個別に入力することにより、前記機械学習モデルから出力結果として、前記複数の部分画像のうちの一の部分画像内において特異な状態が発生していると推定される注目領域の位置及び個数を特定可能な部分状態推定結果を取得するとともに、前記注目領域の状態を説明可能な文字列を有する部分状態説明情報を生成する処理と、
    前記部分状態推定結果及び前記部分状態説明情報のうちの少なくとも一方を用い、前記元画像内において発生していると推定される状態を説明可能な文字列を含む統合状態説明情報を生成するためのルールベースの処理と、
    前記複数の部分画像のうちの1つ以上の部分画像を用いて生成された表示画像に含まれる前記注目領域を視認可能とするための非言語的な視覚情報と、前記統合状態説明情報に含まれる文字列である統合状態説明文と、を併せて表示させるための処理と、を実行させ、
    前記機械学習モデルは、複数の学習用データを用いて学習済みであり、前記学習用データは、学習画像と、マーキング情報と、注目領域説明情報と、を有し、
    前記マーキング情報及び前記注目領域説明情報は、前記学習画像に含まれる被写体を目視等で確認した作業者の判断により作成及び付加されており、前記マーキング情報は、前記学習画像の前記注目領域の位置及び個数を特定可能であり、
    前記注目領域説明情報は、前記注目領域の状態を説明するための文字列を有する領域個別情報と、複数の注目領域各々の状態の関係性に基づいて特定される状態を説明するための文字列を有する領域関係性情報と、を含んでおり、
    前記ルールベースの処理は、予めルール格納部に格納されているルール情報に基づき行われる演算処理であり、前記ルール情報には、専門家の知識に基づいて設定された、処理優先度、処理内容、処理結果、及び、説明情報が予め設定されており、前記ルールベースの処理の後に、前記処理優先度の順に、前記処理内容の処理を行い、前記処理結果に応じた前記説明情報から、前記統合状態説明情報を生成する処理を実行させることを特徴とするプログラム。
JP2019196727A 2019-10-29 2019-10-29 画像処理装置、画像処理方法及びプログラム Active JP7350622B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019196727A JP7350622B2 (ja) 2019-10-29 2019-10-29 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019196727A JP7350622B2 (ja) 2019-10-29 2019-10-29 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021071808A JP2021071808A (ja) 2021-05-06
JP7350622B2 true JP7350622B2 (ja) 2023-09-26

Family

ID=75713122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019196727A Active JP7350622B2 (ja) 2019-10-29 2019-10-29 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7350622B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109479A (ja) 2012-11-30 2014-06-12 Keyence Corp 画像処理装置、画像処理方法及びコンピュータプログラム
JP2018072240A (ja) 2016-11-01 2018-05-10 株式会社日立ハイテクノロジーズ 画像診断支援装置及びシステム、画像診断支援方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109479A (ja) 2012-11-30 2014-06-12 Keyence Corp 画像処理装置、画像処理方法及びコンピュータプログラム
JP2018072240A (ja) 2016-11-01 2018-05-10 株式会社日立ハイテクノロジーズ 画像診断支援装置及びシステム、画像診断支援方法

Also Published As

Publication number Publication date
JP2021071808A (ja) 2021-05-06

Similar Documents

Publication Publication Date Title
JP4462959B2 (ja) 顕微鏡画像撮影システム及び方法
TWI486582B (zh) Semiconductor fault analysis device and fault analysis method
US20120188283A1 (en) Image processing device, image processing method and program
JP2006325122A (ja) 動画表示性能判定方法、検査画面及び動画表示性能判定装置
US20120293537A1 (en) Data-generating device, data-generating method, data-generating program and recording medium
US20140301665A1 (en) Image data generating apparatus, image data display system, and image data generating method
US8320457B2 (en) Display device and method of driving the same
JP2011176747A (ja) 画像処理装置および方法、並びにプログラム
CN110738598A (zh) 图像适配方法、电子设备及存储介质
KR20150106330A (ko) 화상 표시 장치 및 화상 표시 방법
JP5006479B1 (ja) 動き画像領域判定装置またはその方法
JP7350622B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN110458790A (zh) 一种图像检测方法、装置及计算机存储介质
TWI384417B (zh) 影像處理方法及其裝置
US10055097B2 (en) Grasping contents of electronic documents
CN106909283B (zh) 画布显示控制方法和系统
JP5521591B2 (ja) 画像表示装置、及びプログラム
JP2010198433A (ja) オブジェクトの選択を容易にするための方法、装置およびプログラム
US20220187215A1 (en) Information processing apparatus, information processing method, and recording medium
JP2020170252A5 (ja)
JP5115499B2 (ja) プレゼンテーション装置
JP2013062688A (ja) 画像処理装置、画像処理方法
JP5761386B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP5266806B2 (ja) 画像形式推定装置、方法及びプログラム
JP2013168902A (ja) 画像処理装置、表示装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230913

R150 Certificate of patent or registration of utility model

Ref document number: 7350622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150