JP7476487B2 - 検出支援装置、検出支援方法、及びプログラム - Google Patents
検出支援装置、検出支援方法、及びプログラム Download PDFInfo
- Publication number
- JP7476487B2 JP7476487B2 JP2019112677A JP2019112677A JP7476487B2 JP 7476487 B2 JP7476487 B2 JP 7476487B2 JP 2019112677 A JP2019112677 A JP 2019112677A JP 2019112677 A JP2019112677 A JP 2019112677A JP 7476487 B2 JP7476487 B2 JP 7476487B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- content
- visual
- gaze
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 101
- 238000000034 method Methods 0.000 title claims description 50
- 230000000007 visual effect Effects 0.000 claims description 190
- 238000004458 analytical method Methods 0.000 claims description 74
- 238000004364 calculation method Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 44
- 238000007689 inspection Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 11
- 230000016776 visual perception Effects 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 description 31
- 238000012360 testing method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 21
- 230000007547 defect Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000013461 design Methods 0.000 description 11
- 230000004438 eyesight Effects 0.000 description 11
- 238000013526 transfer learning Methods 0.000 description 10
- 238000013136 deep learning model Methods 0.000 description 8
- 210000004556 brain Anatomy 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 210000000857 visual cortex Anatomy 0.000 description 3
- 239000004566 building material Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007230 neural mechanism Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
まず、第1の実施形態について説明する。
人間が、視覚的に得た情報からある判断をしたり、違和感を覚えたりする働きは、人間の脳の視覚神経機構の処理に依拠している。現在、脳の処理の比較的初期の段階については、その処理過程が判ってきている。そこで、その処理過程をモデル化した処理を行う装置として、検出支援装置100を考える。検出支援装置100が視覚神経機構の処理を実行することにより、人間の脳における視覚の情報処理を、より正確に再現することが可能となる。
視覚特徴は、人間の脳の処理の比較的初期の段階で視覚により認識され得る特徴であり、例えば、輝度、色度、コントラスト、勾配、エッジ、オプティカルフロー等である。
視覚特徴は、輝度、色度、赤緑色度、黄青色度、方向、輝度勾配、色度勾配、赤緑勾配、黄青勾配、方向勾配、輝度コントラスト、色度コントラスト、赤緑コントラスト、黄青コントラスト、方向コントラストなどを含む。
また、視覚特徴は、人の目の惹き易さを表す指標であってもよい。人の目の惹き易さを表す指標としては、視覚的注意モデル、視線予測モデル、顕著性モデル、またはサリエンシーモデルと呼ばれるものがある。例えば、非特許文献1や非特許文献2や非特許文献3等の方法を用いることができる。
視覚特徴選択部102は、例えば、視覚特徴DB109に記憶された複数の視覚特徴の中から、ユーザ等により選択された視覚特徴を選択する。
ステップS10:
検出支援装置100は、コンテンツ画像選択部101によりコンテンツ画像を選択する。コンテンツ画像選択部101は、コンテンツ画像DB108を参照することによりコンテンツ画像を選択し、選択したコンテンツ画像を視覚特徴画像生成部103に出力する。
ステップS11:
検出支援装置100は、視覚特徴選択部102により視覚特徴を選択する。視覚特徴選択部102は、視覚特徴DB109を参照することにより視覚特徴を選択し、選択した視覚特徴を、視覚特徴画像生成部103に出力する。
ステップS12:
検出支援装置100は、視覚特徴画像生成部103により視覚特徴画像を生成する。視覚特徴画像生成部103は、ステップS10にて選択されたコンテンツ画像における、ステップS11にて選択された知覚特徴を算出することにより視覚特徴画像を生成する。視覚特徴画像生成部103は、生成した視覚特徴画像を、コンテンツ特徴量算出部105に出力する。
検出支援装置100は、画像特徴選択部104により画像特徴を選択する。画像特徴選択部104は、画像特徴DB111を参照することにより画像特徴を選択し、選択した画像特徴を、コンテンツ特徴量算出部105に出力する。
ステップS14:
検出支援装置100は、コンテンツ特徴量算出部105により、コンテンツ画像におけるコンテンツ特徴量を算出する。コンテンツ特徴量算出部105は、ステップS12にて生成された視覚特徴画像における、ステップS13にて選択された画像特徴を算出することによりコンテンツ特徴量を算出する。
ステップS15:
検出支援装置100は、解析方法選択部106により解析方法を選択する。解析方法選択部106は、解析方法DB113を参照することにより解析方法を選択し、選択した解析方法を、解析部107に出力する。
ステップS16:
検出支援装置100は、解析部107により解析(コンテンツ画像の特徴量を提示するための情報の生成)を行う。解析部107は、ステップS14にて算出されたコンテンツ画像の特徴量を、ステップS15にて選択された解析方法にて示す情報を生成する。解析部107は、生成した情報を、解析結果記憶部114、及び解析結果出力部115に出力する。
検出支援装置100は、解析結果記憶部114に、ステップS16にて解析された解析結果(コンテンツ画像の特徴量を提示するための情報)を記憶させる。
ステップS18:
検出支援装置100は、解析結果出力部115により、ステップS16にて解析された解析結果(コンテンツ画像の特徴量を提示するための情報)を、表示部(不図示)などに出力する。
図3に示す通り、例えば、基準画像と検査画像とは、同一の意匠と思われるほどによく類似して見える。基準画像と検査画像とは、ほとんど差異がないようにも思われる。しかしながら、熟練者であれば、基準画像に不具合を検出し、検出した内容に基づいて基準画像を検査画像のように加工する。
本実施形態では、検出支援装置100により基準画像と検査画像との各々を、人間の視知覚による見え方の差異を、コンテンツ特徴量の差異として可視化して提示することが可能である。つまり、検出支援装置100は、基準画像に比べて検査画像のどのような性質がどの程度異なるのかを、数値で示すことができる。こうすることで、一見ほとんど差異がないようにも思われる両画像の差異を、熟練者でない者が認識できるように支援する。
図5Bに示すように、例えば、スケール8における(2×2)における、0[deg]、及び90[deg]の方向の相関差分が、他の方向の相関差分と比較して大きな値を示す傾向にある。
以下、第2の実施形態について、図面を参照して説明する。本実施形態の検出支援装置100Aは、熟練者がコンテンツ画像の不具合を検出する際の視線を疑似的に提示する点において、上述した実施形態と相違する。検出支援装置100Aは、熟練者の視線を提示することにより、不具合の検出を支援し、非熟練者であっても不具合を検出し易くなるようにすることができる。本実施形態においては、第1の実施形態と異なる構成についてのみ説明し、第1の実施形態による図1の構成と同様の構成については同一の符号を付し、特に必要な場合を除いてその説明を省略する。
検出支援装置100Aは、コンテンツ画像選択部101により選択したコンテンツ画像を視線特徴画像生成部117に出力する。
ステップS21:
検出支援装置100Aは、視線特徴学習モデル選択部116により視線特徴学習モデルを選択する。視線特徴学習モデル選択部116は、視線特徴学習モデルDB118を参照することにより視線特徴学習モデルを選択し、選択した視線特徴学習モデルを、視線特徴画像生成部117に出力する。
ステップS22:
検出支援装置100Aは、視線特徴画像生成部117により視線特徴画像を生成する。視線特徴画像生成部117は、ステップS20にて選択されたコンテンツ画像における視線特徴を、ステップS21にて選択された視線特徴学習モデルを用いて推定することにより視線特徴画像を生成する。視線特徴画像生成部117は、生成した視線特徴画像を、コンテンツ特徴量算出部105Aに出力する。
ステップS24:
検出支援装置100Aは、コンテンツ特徴量算出部105Aにより、コンテンツ画像におけるコンテンツ特徴量を算出する。コンテンツ特徴量算出部105Aは、ステップS22にて生成された視線特徴画像における、ステップS23にて選択された画像特徴を算出することによりコンテンツ特徴量を算出する。
学習装置200は、例えば、学習用コンテンツ画像取得部201と、視線情報取得部202と、学習用視線特徴画像生成部203と、深層学習部204と、学習用コンテンツ画像DB205と、視線情報記憶部206と、視線特徴画像記憶部207と、視線特徴学習モデルDB208とを備える。
ステップS50:
学習装置200は、学習用コンテンツ画像取得部201により、学習用コンテンツ画像を取得する。学習用コンテンツ画像取得部201は、学習用コンテンツ画像を多数取得することが好ましい。一般に、学習データ(学習用コンテンツ画像)を数多くバリエーション豊富に揃えることで良い学習効果が得られるためである。
ステップS51:
学習装置200は、視線情報取得部202により、学習用コンテンツ画像に対応する視線情報を取得する。
ステップS52:
学習装置200は、学習用視線特徴画像生成部203により、ステップS50で取得した学習用コンテンツ画像に、ステップS51で取得した視線情報を適用することにより、学習用視線特徴画像を生成する。
ステップS53:
学習装置200は、ステップS50で取得した学習用コンテンツ画像の全てにおいて、学習用視線特徴画像を生成したか否かを判定する。学習装置200は、学習用コンテンツ画像の全てにおいて、学習用視線特徴画像を生成した場合には、ステップS54に示す処理を実行する。学習装置200は、学習用コンテンツ画像の全てにおいて、学習用視線特徴画像を生成していない場合には、ステップS51に示す処理に戻る。
ステップS54:
学習装置200は、学習用視線特徴画像を学習データとして深層学習を実行することにより、視線特徴学習モデルを生成する。
ステップS60:
学習装置200は、深層学習部204により、推定モデルの入力層及び出力層を構成する。推定モデルは、中間層(プーリング層及び畳み込み層)が多層構造の深層学習モデルである。入力層には、学習用コンテンツ画像における各画素の情報が入力される。出力層は、正規化する全結合層である。この出力層は、「1」あるいは「0」との間の小数点の数値を出力する構成となっている。
ステップS61:
深層学習部204は、深層学習を用いて新たな学習モデルを生成するか、あるいは既存の汎用的な学習モデルを用いた転移学習により新たな学習モデルを生成するか、を判定する。深層学習部204は、例えば、検出支援装置100Aによる学習モデルの選択が実行される際に、係る判定を行う。
一方、深層学習部204は、学習用コンテンツ画像を多量に用意できない状況において、視線特徴学習モデルを生成する場合、すでに深層学習により生成された、他の学習用コンテンツ画像に対応する視線特徴学習モデルを転移学習させることにより、視線特徴学習モデルを生成する。なお、学習用コンテンツ画像が多量に用意できる状況であるか否かは、例えば、学習用コンテンツ画像DB205に記憶された学習用コンテンツ画像の数に応じて、或いはユーザの選択操作に応じて判定される。
深層学習部204は、新規の学習により視線特徴学習モデルを生成する場合、ステップS65に示す処理を実行する。学習装置200は、転移学習により視線特徴学習モデルを生成する場合、ステップS62に示す処理を実行する。
深層学習部204は、視線特徴学習モデルDB208に記憶されている学習モデルの中から、所定の学習モデルを選択する。例えば、深層学習部204は、ユーザにより選択された学習用コンテンツ画像の集合に対して、他の学習用コンテンツ画像の集合に対して学習済みの学習モデルを選択する。深層学習部204は、選択した学習モデルを転移学習に用いる深層学習モデルとして取得する。
ステップS63:
深層学習部204は、ステップS62で転移学習に用いるために読み出した深層学習モデルから、入力層からユーザが指定あるいは予め指定されている中間層(適合層)までを、転移学習モデルとして抽出する。そして、深層学習部204は、深層学習モデルから、上記適合層以降の中間層を抽出し、上記転移学習モデルの適合層に接続し、かつ出力層を接続することにより、転移学習用深層学習モデルを構成する。
ステップS64:
深層学習部204は、学習対象モデル(上記転移学習用深層学習モデルあるいは上記深層学習モデル)の入力層に、学習用コンテンツ画像における熟練者の視線情報に基づき注目度が高いと判断される画素を入力した場合に、出力層から注目度が高いことを示す「1」に近い数値が出力されるように、各ネットワークの層の重みパラメタの最適化処理を行う。また、深層学習部204は、学習対象モデルの入力層に、学習用コンテンツ画像における熟練者の注目度が低いと判断される画素を入力した場合に、出力層から注目度が低いことを示す「0」に近い数値が出力されるよう最適化処理を行う。すなわち、深層学習部204は、学習用コンテンツ画像に対し、クラス分類の機械学習を行い、学習結果として、視線特徴画像を生成する。
この場合、深層学習部204は、学習用コンテンツ画像の集合を、学習モデルに入力した際、出力層の出力する数値が予め設定した第1閾値以上となり、かつ、出力層の出力する数値が予め設定した第2閾値以下となった場合、この学習モデルを視線特徴学習モデルDB208に記憶し、視線特徴学習モデルとする。
一方、深層学習部204は、上記学習テストにおいて、熟練者の視線が集中する画素に対して学習モデルの出力層の出力する数値が予め設定した第1閾値未満、あるいは検査員の視線が集中しにくい画素に対して、学習対象モデルの出力層の出力する数値が予め設定した第2閾値以上である場合、この学習モデルを視線特徴学習モデルDB208に記憶せずに、学習モデルの再学習を行う。
深層学習部204は、ステップS64で生成した学習モデルから、多層構造の中間層におけるプーリング層及び畳み込み層の出力パラメタ、活性化関数の種類と出力されるパラメタなどの各々を、学習モデルのパラメタとして抽出する。
深層学習部204は、生成した学習モデルと、抽出した学習モデルパラメタとを視線特徴学習モデルDB208に記憶させる(登録処理)。
次に第3の実施形態について説明する。本実施形態では、視覚特徴と視線特徴とを用いて、コンテンツ特徴量を算出する点において、上述した実施形態と相違する。これにより、本実施形態の検出支援装置100Bは、人間の視知覚の情報処理に類似した処理を施すこと、及び人間の視線情報を利用することができ、コンテンツ画像の見え方について、より詳細な情報を提示することができる。本実施形態においては、上述した実施形態と異なる構成についてのみ説明し、上述した実施形態の構成と同様の構成については同一の符号を付し、特に必要な場合を除いてその説明を省略する。
なお、コンテンツ特徴量は、視覚特徴視線特徴そのものであってもよい。
検出支援装置100Bは、コンテンツ画像選択部101により取得したコンテンツ画像を、視覚特徴画像生成部103、及び視線特徴画像生成部117に出力する。
ステップS35:
検出支援装置100Bは、視覚特徴視線特徴算出部119により、S32で生成した視覚特徴画像、及びステップS34で生成した視覚特徴画像を用いて、視覚特徴視線特徴を算出し、算出した視覚特徴視線特徴をコンテンツ特徴量算出部105Bに出力する。
ステップS37:
検出支援装置100Bは、コンテンツ特徴量算出部105Bにより、ステップS35で算出した視覚特徴視線特徴に、画像特徴を適用することにより、コンテンツ特徴量を算出する。
また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
101…コンテンツ画像選択部
102…視覚特徴選択部
103…視覚特徴画像生成部
104…画像特徴選択部
105、105A、105B…コンテンツ特徴量算出部
106…解析方法選択部
107…解析部
108…コンテンツ画像DB
109…視覚特徴DB
110…視覚特徴画像記憶部
111…画像特徴DB
112…コンテンツ特徴量記憶部
113…解析方法DB
114…解析結果記憶部
115…解析結果出力部
116…視線特徴学習モデル選択部
117…視線特徴画像生成部
118…視線特徴学習モデルDB
119…視覚特徴視線特徴算出部
Claims (6)
- 所定の柄を繰り返し配置することにより生成されるコンテンツ画像に生じる、前記コンテンツ画像における柄の連続性による想定外のパターンの有無の検出を支援する検出支援装置であって、
前記コンテンツ画像に関する情報を取得するコンテンツ画像取得部と、
前記コンテンツ画像から画像における明るさ又は色の特徴である視覚特徴としてのコントラストを抽出した視覚特徴画像を用いて、コントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像を、前記コンテンツ画像における人間の視知覚による見え方を示すコンテンツ特徴量として算出するコンテンツ特徴量算出部と、
前記想定外のパターンが人間によって検出された画像である基準画像と、前記検出された前記想定外のパターンが人間によって解消された画像である検査画像のそれぞれの前記コンテンツ特徴量として、前記基準画像と前記検査画像のそれぞれのコントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像を比較可能に表示することによって前記基準画像と前記検査画像における人間の視知覚による見え方の差異を可視化する解析結果出力部と、
を備えることを特徴とする検出支援装置。 - 前記視覚特徴には、さらに前記コンテンツ画像に対する人間の目の認識し易さを表す認識指標が含まれる、
ことを特徴とする請求項1に記載の検出支援装置。 - 前記認識指標には、視覚的注意モデル、視線予測モデル、顕著性モデル、及びサリエンシーモデルのうち、少なくとも一つが含まれる、
ことを特徴とする請求項2に記載の検出支援装置。 - 前記コンテンツ特徴量算出部は、前記視覚特徴画像に、画像処理の技法を用いて抽出する画像上の特徴である画像特徴を適用することにより、前記コンテンツ特徴量を算出する、
ことを特徴とする請求項1から請求項3の何れか一項に記載の検出支援装置。 - 所定の柄を繰り返し配置することにより生成されるコンテンツ画像に生じる、前記コンテンツ画像における柄の連続性による想定外のパターンの有無の検出を支援する検出支援装置における検出支援方法であって、
コンテンツ画像取得部が、前記コンテンツ画像に関する情報を取得し、
コンテンツ特徴量算出部が、前記コンテンツ画像から画像における明るさ又は色の特徴である視覚特徴としてのコントラストを抽出した視覚特徴画像を用いて、コントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像を、前記コンテンツ画像における人間の視知覚による見え方を示すコンテンツ特徴量として算出し、
解析結果出力部が、前記想定外のパターンが人間によって検出された画像である基準画像と、前記検出された前記想定外のパターンが人間によって解消された画像である検査画像のそれぞれの前記コンテンツ特徴量として、前記基準画像と前記検査画像のそれぞれのコントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像を比較可能に表示することによって前記基準画像と前記検査画像における人間の視知覚による見え方の差異を可視化する、
ことを特徴とする検出支援方法。 - コンピュータに、請求項1から請求項4の何れか一項に記載の検出支援装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112677A JP7476487B2 (ja) | 2019-06-18 | 2019-06-18 | 検出支援装置、検出支援方法、及びプログラム |
JP2024066632A JP2024083601A (ja) | 2019-06-18 | 2024-04-17 | 検出支援装置、学習装置、検出支援方法、学習方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112677A JP7476487B2 (ja) | 2019-06-18 | 2019-06-18 | 検出支援装置、検出支援方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024066632A Division JP2024083601A (ja) | 2019-06-18 | 2024-04-17 | 検出支援装置、学習装置、検出支援方法、学習方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020204941A JP2020204941A (ja) | 2020-12-24 |
JP7476487B2 true JP7476487B2 (ja) | 2024-05-01 |
Family
ID=73837079
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019112677A Active JP7476487B2 (ja) | 2019-06-18 | 2019-06-18 | 検出支援装置、検出支援方法、及びプログラム |
JP2024066632A Pending JP2024083601A (ja) | 2019-06-18 | 2024-04-17 | 検出支援装置、学習装置、検出支援方法、学習方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024066632A Pending JP2024083601A (ja) | 2019-06-18 | 2024-04-17 | 検出支援装置、学習装置、検出支援方法、学習方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7476487B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039778A (ja) | 2009-08-11 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | 動画像コンテンツ評価装置およびコンピュータプログラム |
JP2013105384A (ja) | 2011-11-15 | 2013-05-30 | Nippon Hoso Kyokai <Nhk> | 注目度推定装置およびそのプログラム |
JP2019016292A (ja) | 2017-07-10 | 2019-01-31 | 凸版印刷株式会社 | コンテンツ生成装置、コンテンツ生成方法及びプログラム |
-
2019
- 2019-06-18 JP JP2019112677A patent/JP7476487B2/ja active Active
-
2024
- 2024-04-17 JP JP2024066632A patent/JP2024083601A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039778A (ja) | 2009-08-11 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | 動画像コンテンツ評価装置およびコンピュータプログラム |
JP2013105384A (ja) | 2011-11-15 | 2013-05-30 | Nippon Hoso Kyokai <Nhk> | 注目度推定装置およびそのプログラム |
JP2019016292A (ja) | 2017-07-10 | 2019-01-31 | 凸版印刷株式会社 | コンテンツ生成装置、コンテンツ生成方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2020204941A (ja) | 2020-12-24 |
JP2024083601A (ja) | 2024-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7180004B2 (ja) | 医用画像分割方法、医用画像分割装置、電子機器及びコンピュータプログラム | |
Wang et al. | Human visual system-based fundus image quality assessment of portable fundus camera photographs | |
JP6955303B2 (ja) | 医用画像処理装置および方法並びにプログラム | |
US11747898B2 (en) | Method and apparatus with gaze estimation | |
Abramoff et al. | Automated segmentation of the optic disc from stereo color photographs using physiologically plausible features | |
Dias et al. | Retinal image quality assessment using generic image quality indicators | |
Zhao et al. | Saliency driven vasculature segmentation with infinite perimeter active contour model | |
CN108549886A (zh) | 一种人脸活体检测方法及装置 | |
CN100566655C (zh) | 用于处理图像以确定图像特性或分析候补的方法 | |
Lavoué et al. | Quality assessment in computer graphics | |
Legg et al. | Feature neighbourhood mutual information for multi-modal image registration: an application to eye fundus imaging | |
JP2019091454A (ja) | データ解析処理装置及びデータ解析処理プログラム | |
US9679216B2 (en) | Morphological automatic triangle orientation detection | |
US11615508B2 (en) | Systems and methods for consistent presentation of medical images using deep neural networks | |
KR20110133416A (ko) | 멀티 스레드 방식을 기반으로 하는 3d 디스플레이를 위한 비디오 처리 방법 | |
WO2015174548A1 (en) | Image diagnosis assistance apparatus, control method thereof, and program | |
JP2015148895A (ja) | 物体数分布推定方法 | |
Qureshi et al. | A comprehensive performance evaluation of objective quality metrics for contrast enhancement techniques | |
JP7476487B2 (ja) | 検出支援装置、検出支援方法、及びプログラム | |
JP2022096883A (ja) | 評価システム、評価方法、及びプログラム | |
JP6527765B2 (ja) | シワ状態分析装置及びシワ状態分析方法 | |
Guo et al. | Objective image fusion evaluation method for target recognition based on target quality factor | |
Sathananthavathi et al. | Improvement of thin retinal vessel extraction using mean matting method | |
Yassine et al. | Fully automated lung segmentation from chest radiographs using SLICO superpixels | |
Wu et al. | A color edge extraction method on color image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476487 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |