JP7476487B2 - 検出支援装置、検出支援方法、及びプログラム - Google Patents

検出支援装置、検出支援方法、及びプログラム Download PDF

Info

Publication number
JP7476487B2
JP7476487B2 JP2019112677A JP2019112677A JP7476487B2 JP 7476487 B2 JP7476487 B2 JP 7476487B2 JP 2019112677 A JP2019112677 A JP 2019112677A JP 2019112677 A JP2019112677 A JP 2019112677A JP 7476487 B2 JP7476487 B2 JP 7476487B2
Authority
JP
Japan
Prior art keywords
image
feature
content
visual
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019112677A
Other languages
English (en)
Other versions
JP2020204941A (ja
Inventor
裕一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2019112677A priority Critical patent/JP7476487B2/ja
Publication of JP2020204941A publication Critical patent/JP2020204941A/ja
Priority to JP2024066632A priority patent/JP2024083601A/ja
Application granted granted Critical
Publication of JP7476487B2 publication Critical patent/JP7476487B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、人間がコンテンツ画像の不具合を検出し易くなるように支援する検出支援装置、検出支援方法、及びプログラムに関する。
建装材の分野においては、古くから、意匠性が重要な付加価値とされており、たとえば木目や抽象柄等の意匠が施された化粧シートが、建築の内外装および家具、調度品等に接着して使用されている。このような化粧シートの意匠には、所定の柄を単位として、その柄を繰り返し配置することにより、所定の柄を同調させたものがある。
このような所定の柄を同調させた意匠(以下、コンテンツ画像、或いは視覚コンテンツなどと称する)においては、柄の連続性が想定外のパターンや影を作り出してしまい、意匠性が損なわれてしまう不具合が発生することがある。このような不具合は、単体の柄を設計する段階では検出することができず、単体の柄を繰り返し配置した画像が作成され、その画像を、ある距離だけ離れた位置から観察して初めて検出されることが多い。これは、画像を観察した人物が、柄が繰り返されたコンテンツ画像上に、なんらかの空間的な規則性(パターン)を、視覚的に感知するためと考えられる。
一般に、訓練をした人間(熟練者)と訓練をしていない人間(非熟練者)とでは、同じ意匠のコンテンツ画像に対して検出することができる視覚的な特徴に差異が生じる。これは、人間が検出することができる視覚的な特徴が、コンテンツ画像の物理的な特性だけでなく、観察する人間の視覚の特性が大きく影響するためと考えられる。
つまり、熟練者は、このようなコンテンツ画像の外観上の不具合を検出することが可能であるが、非熟練者は、係る不具合を検出できないことが少なくない。これは、熟練者が、訓練によってコンテンツ画像に対する不具合の検出方法を習得したためと考えられる。つまり、熟練者は、視覚情報処理過程において、コンテンツ画像に対する特有の見方や、特有の処理方法を確立していると考えられる。このような特有の見方を定量化することができれば、非熟練者であっても、負担の大きい訓練を経ずに、このようなコンテンツ画像の不具合を検出できるようになると考えられる。
L.Itti,C.Koch,E.Niebr:"A model of saliency-based visual attention for rapid scene analysis",IEEE Transactions on Pattern Analysis and Machine Intelligence,Volume 20,Issue:11:P.1254-1259,Nov 1998. D.Gao,V.Mahadevan,N.Vasconcelos:"On the plausibility of the discriminant center-surround hypothesis for visual saliency",Journal of Vision,Vol.8,13,June 2008. J.Harel,C.Koch,P.Perona:"Graph-Based Visual Saliency",Advances in neural information processing systems,19:545-552,January,2006.
人間の視覚の基本的な処理方法を真似た処理を、プロセッサ上に再現することでコンテンツ画像に対する人間の見方を、装置が行う処理として、ある程度再現することができる。例えば、人間の視覚は、眼から光の情報を入力して網膜に二次元状の明るさを示す情報と、色を示す情報とを抽出する。そして、人間の視覚は、抽出した情報を脳の視覚野に送信する。脳の視覚野においては、視覚から得た明るさ等の情報に基づいて、明るさの強度、空間的な不連続性(エッジ)、連続性(勾配)、色情報の色度表現(赤、緑、青の三原色表現や、赤-緑/黄-青などの反対色表現)などが、個別に処理される。
さらに、脳の視覚野においては、処理したそれらの空間的な対比(中心部と周辺部間)や、方向の連続性/不連続性などが処理され、さらにはそれらの組み合わせが処理されて、…、というように、処理結果を用いて更に処理を繰返すことで、段階的に、より高次で複雑なパターンが処理される。これらの各処理を逐次プロセッサ上に実現できれば、人間の視覚と同じ種類の情報が処理できるとともに、ある回路(処理)は強く、別のある回路は弱く作用するように制御することが可能になる。
一方、例えば、目利きに長けた経験豊かな人物(熟練者)が、ある対象物を見て、その不具合に気付くプロセスに着目して、その観察のプロセスを真似て、プロセッサ上に再現することを考える。すなわち、経験知などと呼はれるような一定の訓練を経て人が獲得していく知識や感覚を、プロセッサ上に再現できれば、非熟練者であっても、プロセッサによる処理結果を用いて熟練者と同様の処理を実現することが可能になる。
本発明は、このような事情に鑑みてなされたもので、その目的は、コンテンツ画像に対する、人間の視覚による処理プロセスを、プロセッサ上の処理として実行することができる検出支援装置、検出支援方法、及びプログラムを提供することである。
上述した課題を解決するために、本発明の一態様である検出支援装置は、所定の柄を繰り返し配置することにより生成されるコンテンツ画像に生じる、前記コンテンツ画像における柄の連続性による想定外のパターンの有無の検出を支援する検出支援装置であって、前記コンテンツ画像に関する情報を取得するコンテンツ画像取得部と、前記コンテンツ画像から画像における明るさ又は色の特徴である視覚特徴としてのコントラストを抽出した視覚特徴画像を用いて、コントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像を、前記コンテンツ画像における人間の視知覚による見え方を示すコンテンツ特徴量として算出するコンテンツ特徴量算出部と、前記想定外のパターン人間によって検出された画像である基準画像と、前記検出された前記想定外のパターン人間によって解消された画像である検査画像のそれぞれの前記コンテンツ特徴量として、前記基準画像と前記検査画像のそれぞれのコントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像比較可能に表示することによって前記基準画像と前記検査画像における人間の視知覚による見え方の差異を可視化する解析結果出力部と、を備えることを特徴とする。
上述した課題を解決するために、本発明の一態様である検出支援方法は、所定の柄を繰り返し配置することにより生成されるコンテンツ画像に生じる、前記コンテンツ画像における柄の連続性による想定外のパターンの有無の検出を支援する検出支援装置における検出支援方法であって、コンテンツ画像取得部が、前記コンテンツ画像に関する情報を取得し、コンテンツ特徴量算出部が、前記コンテンツ画像から画像における明るさ又は色の特徴である視覚特徴としてのコントラストを抽出した視覚特徴画像を用いて、コントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像を、前記コンテンツ画像における人間の視知覚による見え方を示すコンテンツ特徴量として算出し、解析結果出力部が、前記想定外のパターン人間によって検出された画像である基準画像と、前記検出された前記想定外のパターン人間によって解消された画像である検査画像のそれぞれの前記コンテンツ特徴量として、前記基準画像と前記検査画像のそれぞれのコントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像比較可能に表示することによって前記基準画像と前記検査画像における人間の視知覚による見え方の差異を可視化する、ことを特徴とする。
また、本発明の一態様であるプログラムは、コンピュータを、上記検出支援装置として機能させるためのプログラムである。
以上説明したように、本発明によれば、コンテンツ画像に対する、人間の視覚による処理プロセスを、プロセッサ上の処理として実行することができる。
本発明の第1の実施形態の検出支援装置100の構成例を示すブロック図である。 本発明の第1の実施形態の検出支援装置100が行う処理の流れを示すフローチャートである。 本発明の第1の実施形態において処理の対象とする画像の例を示す図である。 本発明の第1の実施形態の視覚特徴画像の例である。 本発明の第1の実施形態の解析結果を示す図である。 本発明の第1の実施形態の解析結果を示す図である。 本発明の第1の実施形態の解析結果を示す図である。 本発明の第2の実施形態の検出支援装置100Aの構成例を示すブロック図である。 本発明の第2の実施形態の検出支援装置100Aが行う処理の流れを示すフローチャートである。 実施形態の学習装置200の構成例を示すブロック図である。 実施形態の学習装置200が行う処理の流れを示すフローチャートである。 本実施形態による学習装置200が行なう処理の動作例を示すフローチャートである。 本発明の第3の実施形態の検出支援装置100Bの構成例を示すブロック図である。 本発明の第3の実施形態の検出支援装置100Bが行う処理の流れを示すフローチャートである。
以下、実施形態の検出支援装置を、図面を参照して説明する。
<第1の実施形態>
まず、第1の実施形態について説明する。
人間が、視覚的に得た情報からある判断をしたり、違和感を覚えたりする働きは、人間の脳の視覚神経機構の処理に依拠している。現在、脳の処理の比較的初期の段階については、その処理過程が判ってきている。そこで、その処理過程をモデル化した処理を行う装置として、検出支援装置100を考える。検出支援装置100が視覚神経機構の処理を実行することにより、人間の脳における視覚の情報処理を、より正確に再現することが可能となる。
本実施形態の検出支援装置100は、処理の対象として、例えば、基準画像と検査画像とを用いる。基準画像は、熟練者により不具合が検出された画像である。検査画像は、熟練者による加工が施されて当該不具合が解消された画像である。
基準画像と検査画像とを対象とすることにより、検出支援装置100が、両画像における熟練者と非熟練者の見え方の差異を、人間の視知覚の神経機構の処理過程をモデル化したコンテンツ特徴量の差異として捕捉することができる。すなわち、検出支援装置100が、両画像における見え方の差異を、いくつかの指標毎に、わかりやすく提示することで、基準画像に比べて検査画像のどのような性質がどの程度異なるのかを示し、非熟練者であっても不具合が検出し易くなるように支援する。
なお、以下では、処理の対象とする画像(コンテンツ画像)が、静止画像である場合を例に説明するが、これに限定されることはない。コンテンツ画像は、動画像や、映像等であってもよい。
図1は、本発明の第1の実施形態の検出支援装置100の構成例を示すブロック図である。検出支援装置100は、例えば、コンテンツ画像選択部101と、視覚特徴選択部102と、視覚特徴画像生成部103と、画像特徴選択部104と、コンテンツ特徴量算出部105と、解析方法選択部106と、解析部107と、コンテンツ画像DB(データベース)108と、視覚特徴DB109と、視覚特徴画像記憶部110と、画像特徴DB111と、コンテンツ特徴量記憶部112と、解析方法DB113と、解析結果記憶部114と、解析結果出力部115とを備える。コンテンツ画像選択部101は、「コンテンツ取得部」の一例である。
コンテンツ画像選択部101は、コンテンツ画像を取得する。コンテンツ画像は、所定の柄が繰り返し配置されることにより生成された意匠が表現されている画像である。コンテンツ画像は、例えば、建装材として用いられる壁紙などの化粧シートの意匠を示す画像である。
コンテンツ画像選択部101は、コンテンツ画像DB108に記憶された複数のコンテンツ画像の中から、ユーザ等により選択された画像を、コンテンツ画像として取得する。ユーザ等による選択の方法は、任意の方法であってよい。例えば、コンテンツ画像選択部101は、コンテンツ画像DB108を参照してコンテンツ画像を表示部(不図示)に表示させる。コンテンツ画像選択部101は、マウスやキーボード等の外部入力装置がユーザ等により操作されることにより選択された画像を、コンテンツ画像として取得する。
なお、コンテンツ画像は、コンテンツ画像DB108に記憶されたものに限定されることはなく、例えば、可搬型メモリや、スキャナ、或いは通信ネットワークなど任意の入力手段を介して検出支援装置100により取得されたものであってもよい。
視覚特徴選択部102は、視覚特徴を選択する。
視覚特徴は、人間の脳の処理の比較的初期の段階で視覚により認識され得る特徴であり、例えば、輝度、色度、コントラスト、勾配、エッジ、オプティカルフロー等である。
視覚特徴は、輝度、色度、赤緑色度、黄青色度、方向、輝度勾配、色度勾配、赤緑勾配、黄青勾配、方向勾配、輝度コントラスト、色度コントラスト、赤緑コントラスト、黄青コントラスト、方向コントラストなどを含む。
また、視覚特徴は、人の目の惹き易さを表す指標であってもよい。人の目の惹き易さを表す指標としては、視覚的注意モデル、視線予測モデル、顕著性モデル、またはサリエンシーモデルと呼ばれるものがある。例えば、非特許文献1や非特許文献2や非特許文献3等の方法を用いることができる。
視覚特徴選択部102は、例えば、視覚特徴DB109に記憶された複数の視覚特徴の中から、ユーザ等により選択された視覚特徴を選択する。
視覚特徴画像生成部103は、コンテンツ画像に視覚特徴を適用することにより、視覚特徴画像を生成する。視覚特徴画像は、コンテンツ画像における視覚特徴を示す画像であり、例えば、コンテンツ画像における画素ごとに算出した視覚特徴の度合い(視覚特徴量)を、当該画素の位置座標に対応させた画像である。ここで用いられるコンテンツ画像は、コンテンツ画像選択部101により選択された画像である。ここで用いられる視覚特徴は、視覚特徴選択部102により選択された視覚特徴である。視覚特徴画像生成部103は、生成した視覚特徴画像を、視覚特徴画像記憶部110に記憶させる。
画像特徴選択部104は、画像特徴を選択する。画像特徴は、既知の画像処理の技法を用いて抽出する画像上の特徴であり、例えば、同じ柄を複数配置して形成された模様における空間的な規則性(パターン)を抽出可能なテクスチャ特徴である。テクスチャ特徴としては、例えば、コントラスト、相関、角度2次モーメント、或は一様性等がある。
画像特徴選択部104は、例えば、画像特徴DB111に記憶された複数の画像特徴の中から、ユーザ等による選択操作により選択された画像特徴を選択する。画像特徴選択部104は、取得した画像特徴をコンテンツ特徴量算出部105に出力する。
コンテンツ特徴量算出部105は、コンテンツ特徴量を算出する。コンテンツ特徴量は、コンテンツ画像の見え方に関する特徴の度合いを示す指標であって、例えば、視覚特徴画像に画像特徴を適用することにより算出される、視覚特徴画像における画像上の特徴を統計的に示す統計量である。
コンテンツ特徴量は、例えば、視覚特徴として輝度が選択され、画像特徴としてコントラストが選択された場合、コンテンツ画像において、人間の視覚に認識され得る輝度の状態がいかなるコントラストを形成しているかを示す値となる。ここで用いられる視覚特徴画像は、視覚特徴画像生成部103により生成された画像である。ここで用いられる画像特徴は、画像特徴選択部104により選択された画像特徴である。
コンテンツ特徴量算出部105は、算出したコンテンツ特徴量を、解析部107に出力する。また、コンテンツ特徴量算出部105は、算出したコンテンツ特徴量を、コンテンツ特徴量記憶部112に記憶させる。
なお、コンテンツ特徴量は、視覚特徴の度合い(視覚特徴量)であってもよい。この場合、コンテンツ特徴量算出部105は、例えば、(画像特徴を用いることなく)視覚特徴画像を用いて、コンテンツ特徴量を算出する。
解析方法選択部106は、解析方法を選択する。解析方法は、コンテンツ特徴量を提示する方法であり、例えば、コンテンツ特徴量を示すグラフの種別を示す情報である。グラフの種別としては、例えば、折れ線グラフ、棒線グラフ、円グラフ、レーダチャート等がある。
解析方法選択部106は、例えば、解析方法DB113に記憶された複数の画像特徴の中から、ユーザ等による選択操作により選択された画像特徴を選択する。画像特徴選択部104は、取得した画像特徴をコンテンツ特徴量算出部105に出力する。
解析部107は、コンテンツ特徴量に解析方法を適用することにより、コンテンツ画像におけるコンテンツ特徴量を提示するための情報を生成する。解析部107は、生成した情報を解析結果記憶部114に記憶させる。また、解析部107は、生成した情報を、解析結果出力部115に出力する。
コンテンツ画像DB108は、コンテンツ画像を記憶する。コンテンツ画像DB108には、例えば、コンテンツ画像を一意に示す識別情報に対応付けられたコンテンツ画像が記憶される。コンテンツ画像は、例えば、マウスやキーボード等の外部入力装置、或いは、可搬型メモリや、スキャナ、或いは通信ネットワークなど任意の入力手段を介して検出支援装置100により取得され、コンテンツ画像DB108に記憶される。
コンテンツ画像DB108には、基準画像とその基準画像を加工した検査画像とが対応付けられて記憶されていてもよいし、コンテンツ画像の種別に応じて分類された状態で、コンテンツ画像が記憶されていてもよい。コンテンツ画像の種別とは、例えば、柄の組み合わせ方法や、化粧シートとして作成される場合にシート表面に凹凸が有るか否かなどにより区分される。
視覚特徴DB109は、視覚特徴を記憶する。視覚特徴DB109には、例えば、視覚特徴を一意に示す識別情報に対応付けられた知覚特徴が記憶される。知覚特徴は、例えば、外部入力装置、或いは、入力手段を介して検出支援装置100により取得され、視覚特徴DB109に記憶される。
視覚特徴画像記憶部110は、視覚特徴画像生成部103により生成された視覚特徴画像を記憶する。視覚特徴画像記憶部110には、例えば、視覚特徴画像を一意に示す識別情報に対応付けられた視覚特徴画像、当該視覚特徴画像の生成に用いられたコンテンツ画像の識別情報、及び当該視覚特徴画像の生成に用いられた視覚特徴の識別情報などが記憶される。
画像特徴DB111は、画像特徴を記憶する。画像特徴DB111には、例えば、画像特徴を一意に示す識別情報に対応付けられた画像特徴が記憶される。画像特徴は、例えば、外部入力装置、或いは、入力手段を介して検出支援装置100により取得され、画像特徴DB111に記憶される。
コンテンツ特徴量記憶部112は、コンテンツ特徴量算出部105により算出されたコンテンツ特徴量を記憶する。コンテンツ特徴量記憶部112には、例えば、コンテンツ特徴量を一意に識別する識別情報に対応付けられたコンテンツ特徴量、当該コンテンツ特徴量の算出に用いられた視覚特徴画像の識別情報、及び当該コンテンツ特徴量の算出に用いられた画像特徴の識別情報などが記憶される。
解析方法DB113は、解析方法を記憶する。解析方法DB113には、例えば、解析方法を一意に示す識別情報に対応付けられた解析方法が記憶される。解析方法は、例えば、外部入力装置、或いは、入力手段を介して検出支援装置100により取得され、解析方法DB113に記憶される。
解析結果記憶部114は、解析部107による解析結果(コンテンツ特徴量を提示するための情報)を記憶する。解析結果記憶部114には、例えば、解析結果を一意に示す識別情報に対応付けられた解析結果、その解析に用いられたコンテンツ特徴量の識別情報、及びその解析に用いられた解析方法などが記憶される。
解析結果出力部115は、解析部107による解析結果(コンテンツ特徴量を提示するための情報)を出力する。解析結果出力部115は、例えば、表示部(不図示)に解析結果を出力し、解析結果を表示部に表示させる。
図2は、本発明の第1の実施形態の検出支援装置100が行う処理の流れを示すフローチャートである。
ステップS10:
検出支援装置100は、コンテンツ画像選択部101によりコンテンツ画像を選択する。コンテンツ画像選択部101は、コンテンツ画像DB108を参照することによりコンテンツ画像を選択し、選択したコンテンツ画像を視覚特徴画像生成部103に出力する。
ステップS11:
検出支援装置100は、視覚特徴選択部102により視覚特徴を選択する。視覚特徴選択部102は、視覚特徴DB109を参照することにより視覚特徴を選択し、選択した視覚特徴を、視覚特徴画像生成部103に出力する。
ステップS12:
検出支援装置100は、視覚特徴画像生成部103により視覚特徴画像を生成する。視覚特徴画像生成部103は、ステップS10にて選択されたコンテンツ画像における、ステップS11にて選択された知覚特徴を算出することにより視覚特徴画像を生成する。視覚特徴画像生成部103は、生成した視覚特徴画像を、コンテンツ特徴量算出部105に出力する。
ステップS13:
検出支援装置100は、画像特徴選択部104により画像特徴を選択する。画像特徴選択部104は、画像特徴DB111を参照することにより画像特徴を選択し、選択した画像特徴を、コンテンツ特徴量算出部105に出力する。
ステップS14:
検出支援装置100は、コンテンツ特徴量算出部105により、コンテンツ画像におけるコンテンツ特徴量を算出する。コンテンツ特徴量算出部105は、ステップS12にて生成された視覚特徴画像における、ステップS13にて選択された画像特徴を算出することによりコンテンツ特徴量を算出する。
ステップS15:
検出支援装置100は、解析方法選択部106により解析方法を選択する。解析方法選択部106は、解析方法DB113を参照することにより解析方法を選択し、選択した解析方法を、解析部107に出力する。
ステップS16:
検出支援装置100は、解析部107により解析(コンテンツ画像の特徴量を提示するための情報の生成)を行う。解析部107は、ステップS14にて算出されたコンテンツ画像の特徴量を、ステップS15にて選択された解析方法にて示す情報を生成する。解析部107は、生成した情報を、解析結果記憶部114、及び解析結果出力部115に出力する。
ステップS17:
検出支援装置100は、解析結果記憶部114に、ステップS16にて解析された解析結果(コンテンツ画像の特徴量を提示するための情報)を記憶させる。
ステップS18:
検出支援装置100は、解析結果出力部115により、ステップS16にて解析された解析結果(コンテンツ画像の特徴量を提示するための情報)を、表示部(不図示)などに出力する。
図3は、本発明の第1の実施形態の基準画像及び検査画像の例を示す図である。図3では、左側に基準画像、右側に検査画像が示されている。
図3に示す通り、例えば、基準画像と検査画像とは、同一の意匠と思われるほどによく類似して見える。基準画像と検査画像とは、ほとんど差異がないようにも思われる。しかしながら、熟練者であれば、基準画像に不具合を検出し、検出した内容に基づいて基準画像を検査画像のように加工する。
本実施形態では、検出支援装置100により基準画像と検査画像との各々を、人間の視知覚による見え方の差異を、コンテンツ特徴量の差異として可視化して提示することが可能である。つまり、検出支援装置100は、基準画像に比べて検査画像のどのような性質がどの程度異なるのかを、数値で示すことができる。こうすることで、一見ほとんど差異がないようにも思われる両画像の差異を、熟練者でない者が認識できるように支援する。
図4は、本発明の第1の実施形態の視覚特徴画像の例を示す図である。図4では、視覚特徴としてコントラストが選択された場合の例を示している。
図4では、左側に基準画像における視覚特徴画像の例、右側に検査画像における視覚特徴画像の例を示しており、基準画像及び検査画像の各々についてスケール毎に三つの視覚特徴画像を示している。スケールは、視覚特徴(この例では、コントラスト)を算出する空間の大きさ(画像サイズ)を示す指標であって、上方向に細かい(コントラストを算出する画像サイズが小さい)スケール値、下方向に粗い(同画像サイズが大きい)スケール値を示している。三つの視覚特徴画像は、基準画像及び検査画像に対して、1×1は基準画像を縦横に1枚ずつ連結した(1枚分)場合、2×2は縦横に2枚ずつ連結した(4枚分)場合、3×3は縦横に3枚ずつ連結した(9枚分)場合の視覚特徴画像を、それぞれ示している。
つまり、図4の上段には、スケール値を8(「scl8」と記載)として算出した場合における、基準画像及び検査画像の各々の視覚特徴画像を、左から順に(1×1)、(2×2)、(3×3)の画像サイズで示している。同様に、図4の上段には、スケール値を16(「scl16」と記載)として算出した場合における、基準画像及び検査画像の各々の視覚特徴画像を、左から順に(1×1)、(2×2)、(3×3)の画像サイズで示している。図4の上段には、スケール値を8(「scl8」と記載)として算出した場合における、基準画像及び検査画像の各々の視覚特徴画像を、左から順に(1×1)、(2×2)、(3×3)の画像サイズで示している。
図4に示すように、基準画像から生成した視覚特徴画像と、検査画像から生成した視覚特徴画像とは、例えば、スケール8における(1×1)に対応する両画像や、スケール16における(1×1)に対応する視覚特徴画像を見比べれば、図3の基準画像及び検査画像を見比べた場合と比較して、差異があるように思われる。
視覚特徴画像に差異が認められる場合、基準画像及び検査画像の両画像において、視覚特徴(この例では、コントラスト)に、差異があることを示している。つまり、両画像を視覚特徴画像に変換することで、両画像における視覚特徴に起因する見え方の差異を強調することが可能である。
図5Aは、本発明の第1の実施形態の解析結果を示す図である。図5Aでは、解析方法として折れ線グラフが選択された場合の例を示している。
図5Aでは、スケール値ごとに三つの折れ線グラフを示している。それぞれの折れ線グラフは、基準画像及び検査画像における視覚特徴画像の相関差分を4方向について示している。四方向は、画像に設定した所定の基準軸から、それぞれ0[deg]、45[deg]、90[deg]、及び135[deg]の方向である。三つの折れ線グラフは、左から順に(1×1)、(2×2)、(3×3)の画像サイズにおける相関差分を示している。
図5Bは、図5Aに示す複数の相関差分のうち、スケール8における(2×2)の相関差分を示している。
図5Bに示すように、例えば、スケール8における(2×2)における、0[deg]、及び90[deg]の方向の相関差分が、他の方向の相関差分と比較して大きな値を示す傾向にある。
視覚特徴に比較的大きな差異が示される箇所には、両画像に、比較的大きな差異があることが示されている。つまり、両画像を視覚特徴画像に変換して、その視覚特徴を示すことで、両画像における視覚特徴に起因する差異を定量的に示すことが可能である。
図5Cは、本発明の第1の実施形態の解析結果を示す図である。図5Cでは、解析方法としてレーダチャートが選択された場合の例を示している。
図5Cでは、スケール値ごとに三つのレーダチャートを示している。それぞれのレーダチャートは、基準画像及び検査画像におけるコンテンツ特徴量(この例では、視覚特徴画像のコントラスト)を八方向について示している。八方向は、画像の中心から上下左右、及び、右上、左上、左下、右下のそれぞれの方向である。三つのレーダチャートは、左から順に(1×1)、(2×2)、(3×3)の画像サイズにおける相関差分を示している。
図5Cに示すように、例えば、スケール32における(1×1)における、基準画像の全方向のコントラストが、検査画像のコントラストと比較して大きな値を示す傾向にある。
コンテンツ特徴量に比較的大きな差異が示される箇所には、両画像に、比較的大きな差異があることが示されている。つまり、両画像におけるコンテンツ特徴量を示すことで、両画像における見え方の差異を定量的に示すことが可能である。
以上説明したように、第1の実施形態の検出支援装置100は、コンテンツ画像選択部101(「コンテンツ画像取得部」の一例)と、コンテンツ特徴量算出部105とを備える。コンテンツ画像選択部101は、コンテンツ画像に関する情報を取得する。コンテンツ特徴量算出部105は、コンテンツ画像に、視覚特徴を適用することにより、コンテンツ特徴量を算出する。これにより、第1の実施形態の検出支援装置100によれば、コンテンツ画像に、人間の視覚により認識され得る特徴である視覚特徴を適用することができるため、人間の視覚による処理プロセスを、プロセッサ上の処理として実行することができる。
また、第1の実施形態の検出支援装置100は、視覚特徴画像生成部103をさらに備えてもよい。視覚特徴画像生成部103は、視覚特徴画像を生成する。視覚特徴画像は、コンテンツ画像における画素ごとの視覚特徴の度合いである視覚特徴量を、前記画素に対応づけた画像である。これにより、第1の実施形態の検出支援装置100によれば、視覚特徴をコンテンツ画像の画素に対応付けて示すことができ、コンテンツ画像におけるどの箇所がどのような視覚特徴量であるのかを、判りやすく示すことができる。
また、第1の実施形態の検出支援装置100では、視覚特徴画像生成部103は、輝度、色度、コントラスト、エッジ、オプティカルフロー、及び歪度の中から選択された少なくとも一つを、視覚特徴として用いて、視覚特徴画像を生成する。これにより、第1の実施形態の検出支援装置100によれば、既存の画像処理の技法のうち、視覚による見え方に類似する技法を利用してより精度よく、視覚特徴画像を生成することができる。
また、第1の実施形態の検出支援装置100では、視覚特徴画像生成部103は、コンテンツ画像に対する人間の目の認識し易さを表す認識指標を、視覚特徴として用いて、視覚特徴画像を生成する。これにより、第1の実施形態の検出支援装置100によれば、人間の目の認識に、より近づくように視覚特徴画像を生成することができる。
また、第1の実施形態の検出支援装置100では、認識指標には、視覚的注意モデル、視線予測モデル、顕著性モデル、及びサリエンシーモデルのうち、少なくとも一つが含まれる。これにより、第1の実施形態の検出支援装置100によれば、既存のモデルを用いて、より精度よく視覚特徴画像を生成することができる。
また、第1の実施形態の検出支援装置100では、コンテンツ特徴量算出部105は、視覚特徴画像に、画像特徴を適用することにより、コンテンツ特徴量を算出する。これにより、第1の実施形態の検出支援装置100によれば、視覚特徴画像を画像処理の技法を用いて、視覚特徴により示される特徴の度合いを統計的に処理することができ、より定量的にコンテンツ特徴量を示すことができる。
なお、人の脳機能の解明が進むにしたがって、視覚により認識され得る特徴が数多く発見されつつあり、それらの特徴を視覚特徴に含めてもよい。
<第2の実施形態>
以下、第2の実施形態について、図面を参照して説明する。本実施形態の検出支援装置100Aは、熟練者がコンテンツ画像の不具合を検出する際の視線を疑似的に提示する点において、上述した実施形態と相違する。検出支援装置100Aは、熟練者の視線を提示することにより、不具合の検出を支援し、非熟練者であっても不具合を検出し易くなるようにすることができる。本実施形態においては、第1の実施形態と異なる構成についてのみ説明し、第1の実施形態による図1の構成と同様の構成については同一の符号を付し、特に必要な場合を除いてその説明を省略する。
図6は、第2の実施形態による検出支援装置100Aの構成例を示すブロック図である。検出支援装置100Aは、例えば、視線特徴学習モデル選択部116と、視線特徴画像生成部117と、視線特徴学習モデルDB118と、コンテンツ特徴量算出部105Aとを備える。検出支援装置100Aは、視覚特徴選択部102、及び視覚特徴画像生成部103を備えない。
以下、本実施形態においては、コンテンツ画像を静止画像として説明するが、第1の実施形態と同様に、動画像、映像等の他のコンテンツ画像に適用されてもよい。
視線特徴学習モデル選択部116は、視線特徴学習モデルを選択する。視線特徴学習モデルは、機械学習の手法により生成された、コンテンツ画像における視線特徴を推定するモデルである。視線特徴は、熟練者がコンテンツ画像の不具合を検出する際の視線に関する特徴を示す情報であって、例えば、後述する視線特徴画像、或いはコンテンツ画像の領域ごとに視認される度合いを統計的に示す情報である。
視線特徴学習モデルは、例えば、互いに異なる複数の学習用のコンテンツ画像(学習用コンテンツ画像)の各々に、それぞれの学習用コンテンツ画像を視認した熟練者の視線特徴の実績を対応付けた学習データを用いて機械学習を実行することにより生成される。
視線特徴を取得する手段としては、市販の専用の視線計測機(例えば、身体装着型計測機であるTobii社のTobii Pro Glasse2や、据え置き型計測機である Tobii Pro X2,X3等)を用いても良く、もしくは民生カメラと視線推定手法の組み合わせで計算する方法を用いても良い。視線特徴は、一般的に一定のサンプリングタイムで計測した視点の座標が時系列で格納されており、これを画像上の座標に変換して使用する。
ここで用いられる機械学習の手法は、任意の手法であってよいが、例えば、深層ニューラルネットワークなどの推定モデルを用いて行われる。深層ニューラルネットは、例えば、入力層、出力層、及びその中間を多層の畳み込み層とプーリング層により接続された構成を備える。そして、多層ニューラルネットワークの入力層に学習用コンテンツ画像を入力した場合における、当該多層ニューラルネットワークの出力層から出力される情報が、その学習用コンテンツ画像に対応付けられた視線特徴となるように学習が繰返されることにより、各層を結合する結合係数やバイアス値が決定される。推定モデルの結合係数やバイアス値が決定されることにより、視線特徴学習モデルが生成される。
視線特徴学習モデル選択部116は、例えば、視線特徴学習モデルDB118に記憶された複数の視線特徴学習モデルの中から、ユーザ等による選択操作により選択された視線特徴学習モデルを選択する。視線特徴学習モデル選択部116は、取得した視線特徴学習モデルを視線特徴画像生成部117に出力する。
視線特徴画像生成部117は、コンテンツ画像に、視線特徴学習モデルにより推定された視線特徴を適用することにより、視線特徴画像を生成する。視線特徴画像は、コンテンツ画像における視線特徴の度合いを示す画像である。視線特徴から視線特徴画像を得る方法としては、例えば、計測時間内の画像上の視点の蓄積を確率分布として近似してヒートマップを出力する方法が用いられる。
視線特徴画像は、視線特徴を、1枚の画像に情報を縮約させた画像である。ここで、情報の縮約方法としては、例えば、コンテンツ画像における画素毎の視線分布を計数して2次元ヒストグラムを構成し、ヒストグラムの山を、2次元正規分布を用いて近似表現して、強度[0,1]の範囲の実数値で表現する方法(一般にヒートマップと呼ばれる)等がある。
視線特徴画像生成部117により用いられるコンテンツ画像は、コンテンツ画像選択部101により選択された画像である。視線特徴画像生成部117により用いられる視線特徴は、視線特徴学習モデル選択部116により選択された視線特徴学習モデルに、コンテンツ画像選択部101により選択されたコンテンツ画像を入力させることにより推定されたものである。視線特徴画像生成部117は、生成した視線特徴画像を、コンテンツ特徴量算出部105Aに出力する。
視線特徴学習モデルDB118は、視線特徴学習モデルを記憶する。視線特徴学習モデルDB118には、例えば、視線特徴学習モデルを一意に示す識別情報に対応付けられた視線特徴学習モデルが記憶される。視線特徴学習モデルは、例えば、外部の学習サーバなどにより生成され、外部入力装置、或いは、入力手段を介して検出支援装置100により取得され、解析方法DB113に記憶される。視線特徴学習モデルDB118には、コンテンツ画像の種別に応じたモデルが記憶されていてもよい。これにより、コンテンツ画像の種別により、熟練者の見方が異なる場合であっても、その種別に応じたモデルを選択することができ、より精度よく視線特徴を推定させることが可能となる。
コンテンツ特徴量算出部105Aは、視線特徴画像に画像特徴を適用することによりコンテンツ特徴量を算出する。本実施形態のコンテンツ特徴量は、例えば、視線特徴画像における画像上の特徴を統計的に示す統計量である。
コンテンツ特徴量は、例えば、画像特徴としてコントラストが選択された場合、コンテンツ画像において、熟練者の視線がいかなるコントラストを形成しているかを示す値となる。ここで用いられる視線特徴画像は、視線特徴画像生成部117により生成された画像である。ここで用いられる画像特徴は、画像特徴選択部104により選択された画像特徴である。
なお、コンテンツ特徴量は、視線特徴の度合いであってもよく、この場合、コンテンツ特徴量は、視線特徴画像そのものである。
図7は、本実施形態による検出支援装置100Aが行なう処理の動作例を示すフローチャートである。図7のステップS23、及びS25~S28の各々に示す処理については、図2のステップS13、及びS15~S18の各々に示す処理と同様であるため、その説明を省略する。
ステップS20:
検出支援装置100Aは、コンテンツ画像選択部101により選択したコンテンツ画像を視線特徴画像生成部117に出力する。
ステップS21:
検出支援装置100Aは、視線特徴学習モデル選択部116により視線特徴学習モデルを選択する。視線特徴学習モデル選択部116は、視線特徴学習モデルDB118を参照することにより視線特徴学習モデルを選択し、選択した視線特徴学習モデルを、視線特徴画像生成部117に出力する。
ステップS22:
検出支援装置100Aは、視線特徴画像生成部117により視線特徴画像を生成する。視線特徴画像生成部117は、ステップS20にて選択されたコンテンツ画像における視線特徴を、ステップS21にて選択された視線特徴学習モデルを用いて推定することにより視線特徴画像を生成する。視線特徴画像生成部117は、生成した視線特徴画像を、コンテンツ特徴量算出部105Aに出力する。
ステップS24:
検出支援装置100Aは、コンテンツ特徴量算出部105Aにより、コンテンツ画像におけるコンテンツ特徴量を算出する。コンテンツ特徴量算出部105Aは、ステップS22にて生成された視線特徴画像における、ステップS23にて選択された画像特徴を算出することによりコンテンツ特徴量を算出する。
以上説明したように、第2の実施形態の検出支援装置100Aでは、コンテンツ特徴量算出部105Aが、コンテンツ画像に、前記コンテンツ画像を視認する視線の特徴を示す視線特徴を適用することにより、コンテンツ特徴量を算出する。これにより、第2の実施形態の検出支援装置100Aによれば、上述した効果と同様の効果を奏する。
また、第2の実施形態の検出支援装置100Aでは、視線特徴画像生成部117を更に備える。視線特徴画像生成部117は、コンテンツ画像における画素ごとの視線特徴を、前記画素の位置座標に対応させた視線特徴画像を生成する。コンテンツ特徴量算出部105Aは、視線特徴画像を用いてコンテンツ特徴量を算出する。これにより、第2の実施形態の検出支援装置100Aによれば、上述した効果と同様の効果を奏する。
また、第2の実施形態の検出支援装置100Aでは、視線特徴は、コンテンツ画像と、当該コンテンツ画像における視線特徴の実績とを対応付けた学習データを用いて機械学習を実行することにより生成された視線特徴学習モデルを用いて推定される。これにより、第2の実施形態の検出支援装置100Aによれば、コンテンツ画像における熟練者の視線特徴を、過去の実績に基づいてより精度よく推定することが可能である。
図8は、実施形態の学習装置200の構成例を示すブロック図である。学習装置200は、視線特徴学習モデルを生成する装置である。
学習装置200は、例えば、学習用コンテンツ画像取得部201と、視線情報取得部202と、学習用視線特徴画像生成部203と、深層学習部204と、学習用コンテンツ画像DB205と、視線情報記憶部206と、視線特徴画像記憶部207と、視線特徴学習モデルDB208とを備える。
学習用コンテンツ画像取得部201は、学習用コンテンツ画像を取得する。学習用コンテンツ画像は、推定モデルに機械学習を実行する際に用いられる学習データであって、推定モデルの入力層に入力(設定)する情報である。
学習用コンテンツ画像取得部201は、学習用コンテンツ画像DB205に記憶された複数の学習用コンテンツ画像の中から、学習量に応じてユーザ等により選択された画像の集合を、学習用コンテンツ画像の集合として取得する。ユーザ等による選択の方法は、任意の方法であってよい。学習用コンテンツ画像取得部201は、取得した学習用コンテンツ画像を、学習用視線特徴画像生成部203に出力する。
視線情報取得部202は、視線情報(視線特徴)を取得する。視線情報は、学習用コンテンツ画像に対する熟練者の視線に関する情報であって、例えば、学習用コンテンツ画像を視認する熟練者の視線の時系列変化を示す情報である。視線情報取得部202は、例えば、視線情報記憶部206に記憶された複数の視覚特徴の中から、学習用コンテンツ画像に対応する視線情報を選択する。視線情報取得部202は、取得した視線情報を、学習用視線特徴画像生成部203に出力する。
学習用視線特徴画像生成部203は、学習用コンテンツ画像に、視線情報を適用することにより、学習用視線特徴画像を生成する。学習用視線特徴画像を生成する方法は、視線特徴画像生成部117が視線特徴画像を生成する方法と同様であるため、その説明を省略する。学習用視線特徴画像生成部203は、生成した学習用視線特徴画像を、深層学習部204に出力すると共に、視線特徴画像記憶部207に記憶させる。
深層学習部204は、学習用視線特徴画像を学習データとした学習(深層学習)を行うことにより、視線特徴学習モデルを生成する。深層学習部204は、生成した視線特徴学習モデルを視線特徴学習モデルDB208に記憶させる。
図9は、本実施形態による学習装置200が行なう処理の動作例を示すフローチャートである。図9では、深層学習による視線特徴学習モデルを生成する処理の動作の流れが示される。
ステップS50:
学習装置200は、学習用コンテンツ画像取得部201により、学習用コンテンツ画像を取得する。学習用コンテンツ画像取得部201は、学習用コンテンツ画像を多数取得することが好ましい。一般に、学習データ(学習用コンテンツ画像)を数多くバリエーション豊富に揃えることで良い学習効果が得られるためである。
ステップS51:
学習装置200は、視線情報取得部202により、学習用コンテンツ画像に対応する視線情報を取得する。
ステップS52:
学習装置200は、学習用視線特徴画像生成部203により、ステップS50で取得した学習用コンテンツ画像に、ステップS51で取得した視線情報を適用することにより、学習用視線特徴画像を生成する。
ステップS53:
学習装置200は、ステップS50で取得した学習用コンテンツ画像の全てにおいて、学習用視線特徴画像を生成したか否かを判定する。学習装置200は、学習用コンテンツ画像の全てにおいて、学習用視線特徴画像を生成した場合には、ステップS54に示す処理を実行する。学習装置200は、学習用コンテンツ画像の全てにおいて、学習用視線特徴画像を生成していない場合には、ステップS51に示す処理に戻る。
ステップS54:
学習装置200は、学習用視線特徴画像を学習データとして深層学習を実行することにより、視線特徴学習モデルを生成する。
図10は、本実施形態による学習装置200が行なう処理の動作例を示すフローチャートである。図10では、深層学習による視線特徴学習モデル(以下、単に学習モデルともいう)について転移学習を行うことで新たな学習モデルを生成する処理の動作の流れが示される。
ステップS60:
学習装置200は、深層学習部204により、推定モデルの入力層及び出力層を構成する。推定モデルは、中間層(プーリング層及び畳み込み層)が多層構造の深層学習モデルである。入力層には、学習用コンテンツ画像における各画素の情報が入力される。出力層は、正規化する全結合層である。この出力層は、「1」あるいは「0」との間の小数点の数値を出力する構成となっている。
ステップS61:
深層学習部204は、深層学習を用いて新たな学習モデルを生成するか、あるいは既存の汎用的な学習モデルを用いた転移学習により新たな学習モデルを生成するか、を判定する。深層学習部204は、例えば、検出支援装置100Aによる学習モデルの選択が実行される際に、係る判定を行う。
例えば、深層学習部204は、学習用コンテンツ画像を多量に用意できる状況において、視線特徴学習モデルを生成する場合を考える。この場合、各学習用コンテンツ画像に対して、熟練者の視線情報を取得し、正解コンテンツ集合(学習データ)を生成する。その後、深層学習部204は、学習用コンテンツ画像の集合と、正解コンテンツ集合とを用いて、深層学習モデル(推定モデル)を機械学習により学習させ、つまり、新規の学習により視線特徴学習モデルを生成する。
一方、深層学習部204は、学習用コンテンツ画像を多量に用意できない状況において、視線特徴学習モデルを生成する場合、すでに深層学習により生成された、他の学習用コンテンツ画像に対応する視線特徴学習モデルを転移学習させることにより、視線特徴学習モデルを生成する。なお、学習用コンテンツ画像が多量に用意できる状況であるか否かは、例えば、学習用コンテンツ画像DB205に記憶された学習用コンテンツ画像の数に応じて、或いはユーザの選択操作に応じて判定される。
深層学習部204は、新規の学習により視線特徴学習モデルを生成する場合、ステップS65に示す処理を実行する。学習装置200は、転移学習により視線特徴学習モデルを生成する場合、ステップS62に示す処理を実行する。
ステップS62:
深層学習部204は、視線特徴学習モデルDB208に記憶されている学習モデルの中から、所定の学習モデルを選択する。例えば、深層学習部204は、ユーザにより選択された学習用コンテンツ画像の集合に対して、他の学習用コンテンツ画像の集合に対して学習済みの学習モデルを選択する。深層学習部204は、選択した学習モデルを転移学習に用いる深層学習モデルとして取得する。
ステップS63:
深層学習部204は、ステップS62で転移学習に用いるために読み出した深層学習モデルから、入力層からユーザが指定あるいは予め指定されている中間層(適合層)までを、転移学習モデルとして抽出する。そして、深層学習部204は、深層学習モデルから、上記適合層以降の中間層を抽出し、上記転移学習モデルの適合層に接続し、かつ出力層を接続することにより、転移学習用深層学習モデルを構成する。
ステップS64:
深層学習部204は、学習対象モデル(上記転移学習用深層学習モデルあるいは上記深層学習モデル)の入力層に、学習用コンテンツ画像における熟練者の視線情報に基づき注目度が高いと判断される画素を入力した場合に、出力層から注目度が高いことを示す「1」に近い数値が出力されるように、各ネットワークの層の重みパラメタの最適化処理を行う。また、深層学習部204は、学習対象モデルの入力層に、学習用コンテンツ画像における熟練者の注目度が低いと判断される画素を入力した場合に、出力層から注目度が低いことを示す「0」に近い数値が出力されるよう最適化処理を行う。すなわち、深層学習部204は、学習用コンテンツ画像に対し、クラス分類の機械学習を行い、学習結果として、視線特徴画像を生成する。
このとき、深層学習部204は、生成した学習モデルに対し、学習用コンテンツとは異なる学習用コンテンツ画像の集合と、それらの画像に対する熟練者の視線情報である正解データ集合との組を入力し、生成した学習モデルに対して学習テストを行うようにしてもよい。
この場合、深層学習部204は、学習用コンテンツ画像の集合を、学習モデルに入力した際、出力層の出力する数値が予め設定した第1閾値以上となり、かつ、出力層の出力する数値が予め設定した第2閾値以下となった場合、この学習モデルを視線特徴学習モデルDB208に記憶し、視線特徴学習モデルとする。
一方、深層学習部204は、上記学習テストにおいて、熟練者の視線が集中する画素に対して学習モデルの出力層の出力する数値が予め設定した第1閾値未満、あるいは検査員の視線が集中しにくい画素に対して、学習対象モデルの出力層の出力する数値が予め設定した第2閾値以上である場合、この学習モデルを視線特徴学習モデルDB208に記憶せずに、学習モデルの再学習を行う。
ステップS65:
深層学習部204は、ステップS64で生成した学習モデルから、多層構造の中間層におけるプーリング層及び畳み込み層の出力パラメタ、活性化関数の種類と出力されるパラメタなどの各々を、学習モデルのパラメタとして抽出する。
ステップS66:
深層学習部204は、生成した学習モデルと、抽出した学習モデルパラメタとを視線特徴学習モデルDB208に記憶させる(登録処理)。
<第3の実施形態>
次に第3の実施形態について説明する。本実施形態では、視覚特徴と視線特徴とを用いて、コンテンツ特徴量を算出する点において、上述した実施形態と相違する。これにより、本実施形態の検出支援装置100Bは、人間の視知覚の情報処理に類似した処理を施すこと、及び人間の視線情報を利用することができ、コンテンツ画像の見え方について、より詳細な情報を提示することができる。本実施形態においては、上述した実施形態と異なる構成についてのみ説明し、上述した実施形態の構成と同様の構成については同一の符号を付し、特に必要な場合を除いてその説明を省略する。
図11は、第3の実施形態による検出支援装置100Bの構成例を示すブロック図である。検出支援装置100Bは、例えば、視覚特徴視線特徴算出部119と、コンテンツ特徴量算出部105Bとを備える。
以下、本実施形態においては、コンテンツ画像を静止画像として説明するが、第1の実施形態と同様に、動画像、映像等の他のコンテンツ画像に適用されてもよい。
視覚特徴視線特徴算出部119は、視覚特徴画像と視線特徴画像とを用いて、視覚特徴視線特徴を算出する。視覚特徴視線特徴は、視覚特徴と視線特徴との双方の度合いを示す情報である。視覚特徴視線特徴算出部119は、例えば、視覚特徴と視線特徴との間で演算を行うことにより、視覚特徴視線特徴を算出する。ここでの演算には、例えば、視覚特徴と視線特徴との論理積(AND)、論理和(OR)、排他的論理和(XOR)等の各種論理演算や、Winners take all演算や、ビット演算、四則演算等が含まれる。
視覚特徴視線特徴算出部119は、視覚特徴と視線特徴との間で演算を行う際に、特徴ごと、或いは画素ごとに重みづけを行ってもよい。
視覚特徴視線特徴算出部119により用いられる視覚特徴画像は、視覚特徴画像生成部103により生成された画像である。視覚特徴視線特徴算出部119により用いられる視線特徴画像は、視線特徴画像生成部117により生成された画像である。視覚特徴視線特徴算出部119は、生成した視覚特徴視線特徴を、コンテンツ特徴量算出部105Aに出力する。
コンテンツ特徴量算出部105Bは、視覚特徴視線特徴に画像特徴を適用することによりコンテンツ特徴量を算出する。本実施形態のコンテンツ特徴量は、例えば、視覚特徴視線特徴における画像上の特徴を統計的に示す統計量である。
コンテンツ特徴量は、例えば、画像特徴としてコントラストが選択された場合、コンテンツ画像において、視覚特徴視線特徴がいかなるコントラストを形成しているかを示す値となる。ここで用いられる視覚特徴視線特徴は、視覚特徴視線特徴算出部119により生成された情報である。ここで用いられる画像特徴は、画像特徴選択部104により選択された画像特徴である。
なお、コンテンツ特徴量は、視覚特徴視線特徴そのものであってもよい。
図12は、本実施形態による検出支援装置100Bが行なう処理の動作例を示すフローチャートである。図12のステップS31、S32、S36、及びS38~S41の各々に示す処理については、図2のステップS11、S12、S13、及びS15~S18の各々に示す処理と同様であるため、その説明を省略する。また、図12のステップS33、S34に示す処理については、図2のステップS21、S22に示す処理と同様であるため、その説明を省略する。
ステップS30:
検出支援装置100Bは、コンテンツ画像選択部101により取得したコンテンツ画像を、視覚特徴画像生成部103、及び視線特徴画像生成部117に出力する。
ステップS35:
検出支援装置100Bは、視覚特徴視線特徴算出部119により、S32で生成した視覚特徴画像、及びステップS34で生成した視覚特徴画像を用いて、視覚特徴視線特徴を算出し、算出した視覚特徴視線特徴をコンテンツ特徴量算出部105Bに出力する。
ステップS37:
検出支援装置100Bは、コンテンツ特徴量算出部105Bにより、ステップS35で算出した視覚特徴視線特徴に、画像特徴を適用することにより、コンテンツ特徴量を算出する。
以上説明したように、第3の実施形態の検出支援装置100Bは、視覚特徴視線特徴算出部119を備える。視覚特徴視線特徴算出部119は、視覚特徴画像と視線特徴画像とを用いて、視覚特徴視線特徴を算出する。これにより、第3の実施形態の検出支援装置100Bによれば、人間の視知覚の情報処理に類似した処理を施すこと、及び人間の視線情報を利用することができ、コンテンツ画像の見え方について、より詳細な情報を提示することができる。
なお、本発明における検出支援装置100(100A、100B)の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませて実行することにより処理を行なってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100、100A、100B…検出支援装置
101…コンテンツ画像選択部
102…視覚特徴選択部
103…視覚特徴画像生成部
104…画像特徴選択部
105、105A、105B…コンテンツ特徴量算出部
106…解析方法選択部
107…解析部
108…コンテンツ画像DB
109…視覚特徴DB
110…視覚特徴画像記憶部
111…画像特徴DB
112…コンテンツ特徴量記憶部
113…解析方法DB
114…解析結果記憶部
115…解析結果出力部
116…視線特徴学習モデル選択部
117…視線特徴画像生成部
118…視線特徴学習モデルDB
119…視覚特徴視線特徴算出部

Claims (6)

  1. 所定の柄を繰り返し配置することにより生成されるコンテンツ画像に生じる、前記コンテンツ画像における柄の連続性による想定外のパターンの有無の検出を支援する検出支援装置であって、
    前記コンテンツ画像に関する情報を取得するコンテンツ画像取得部と、
    前記コンテンツ画像から画像における明るさ又は色の特徴である視覚特徴としてのコントラストを抽出した視覚特徴画像を用いて、コントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像を、前記コンテンツ画像における人間の視知覚による見え方を示すコンテンツ特徴量として算出するコンテンツ特徴量算出部と、
    前記想定外のパターン人間によって検出された画像である基準画像と、前記検出された前記想定外のパターン人間によって解消された画像である検査画像のそれぞれの前記コンテンツ特徴量として、前記基準画像と前記検査画像のそれぞれのコントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像比較可能に表示することによって前記基準画像と前記検査画像における人間の視知覚による見え方の差異を可視化する解析結果出力部と、
    を備えることを特徴とする検出支援装置。
  2. 前記視覚特徴には、さらに前記コンテンツ画像に対する人間の目の認識し易さを表す認識指標が含まれる、
    ことを特徴とする請求項1に記載の検出支援装置。
  3. 前記認識指標には、視覚的注意モデル、視線予測モデル、顕著性モデル、及びサリエンシーモデルのうち、少なくとも一つが含まれる、
    ことを特徴とする請求項に記載の検出支援装置。
  4. 前記コンテンツ特徴量算出部は、前記視覚特徴画像に、画像処理の技法を用いて抽出する画像上の特徴である画像特徴を適用することにより、前記コンテンツ特徴量を算出する、
    ことを特徴とする請求項1から請求項の何れか一項に記載の検出支援装置。
  5. 所定の柄を繰り返し配置することにより生成されるコンテンツ画像に生じる、前記コンテンツ画像における柄の連続性による想定外のパターンの有無の検出を支援する検出支援装置における検出支援方法であって、
    コンテンツ画像取得部が、前記コンテンツ画像に関する情報を取得し、
    コンテンツ特徴量算出部が、前記コンテンツ画像から画像における明るさ又は色の特徴である視覚特徴としてのコントラストを抽出した視覚特徴画像を用いて、コントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像を、前記コンテンツ画像における人間の視知覚による見え方を示すコンテンツ特徴量として算出し、
    解析結果出力部が、前記想定外のパターン人間によって検出された画像である基準画像と、前記検出された前記想定外のパターン人間によって解消された画像である検査画像のそれぞれの前記コンテンツ特徴量として、前記基準画像と前記検査画像のそれぞれのコントラストを抽出する画像サイズが異なる複数の前記視覚特徴画像比較可能に表示することによって前記基準画像と前記検査画像における人間の視知覚による見え方の差異を可視化する、
    ことを特徴とする検出支援方法。
  6. コンピュータに、請求項1から請求項の何れか一項に記載の検出支援装置として機能させるためのプログラム。
JP2019112677A 2019-06-18 2019-06-18 検出支援装置、検出支援方法、及びプログラム Active JP7476487B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019112677A JP7476487B2 (ja) 2019-06-18 2019-06-18 検出支援装置、検出支援方法、及びプログラム
JP2024066632A JP2024083601A (ja) 2019-06-18 2024-04-17 検出支援装置、学習装置、検出支援方法、学習方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019112677A JP7476487B2 (ja) 2019-06-18 2019-06-18 検出支援装置、検出支援方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024066632A Division JP2024083601A (ja) 2019-06-18 2024-04-17 検出支援装置、学習装置、検出支援方法、学習方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020204941A JP2020204941A (ja) 2020-12-24
JP7476487B2 true JP7476487B2 (ja) 2024-05-01

Family

ID=73837079

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019112677A Active JP7476487B2 (ja) 2019-06-18 2019-06-18 検出支援装置、検出支援方法、及びプログラム
JP2024066632A Pending JP2024083601A (ja) 2019-06-18 2024-04-17 検出支援装置、学習装置、検出支援方法、学習方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024066632A Pending JP2024083601A (ja) 2019-06-18 2024-04-17 検出支援装置、学習装置、検出支援方法、学習方法、及びプログラム

Country Status (1)

Country Link
JP (2) JP7476487B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039778A (ja) 2009-08-11 2011-02-24 Nippon Hoso Kyokai <Nhk> 動画像コンテンツ評価装置およびコンピュータプログラム
JP2013105384A (ja) 2011-11-15 2013-05-30 Nippon Hoso Kyokai <Nhk> 注目度推定装置およびそのプログラム
JP2019016292A (ja) 2017-07-10 2019-01-31 凸版印刷株式会社 コンテンツ生成装置、コンテンツ生成方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039778A (ja) 2009-08-11 2011-02-24 Nippon Hoso Kyokai <Nhk> 動画像コンテンツ評価装置およびコンピュータプログラム
JP2013105384A (ja) 2011-11-15 2013-05-30 Nippon Hoso Kyokai <Nhk> 注目度推定装置およびそのプログラム
JP2019016292A (ja) 2017-07-10 2019-01-31 凸版印刷株式会社 コンテンツ生成装置、コンテンツ生成方法及びプログラム

Also Published As

Publication number Publication date
JP2020204941A (ja) 2020-12-24
JP2024083601A (ja) 2024-06-21

Similar Documents

Publication Publication Date Title
JP7180004B2 (ja) 医用画像分割方法、医用画像分割装置、電子機器及びコンピュータプログラム
Wang et al. Human visual system-based fundus image quality assessment of portable fundus camera photographs
JP6955303B2 (ja) 医用画像処理装置および方法並びにプログラム
US11747898B2 (en) Method and apparatus with gaze estimation
Abramoff et al. Automated segmentation of the optic disc from stereo color photographs using physiologically plausible features
Dias et al. Retinal image quality assessment using generic image quality indicators
Zhao et al. Saliency driven vasculature segmentation with infinite perimeter active contour model
CN108549886A (zh) 一种人脸活体检测方法及装置
CN100566655C (zh) 用于处理图像以确定图像特性或分析候补的方法
Lavoué et al. Quality assessment in computer graphics
Legg et al. Feature neighbourhood mutual information for multi-modal image registration: an application to eye fundus imaging
JP2019091454A (ja) データ解析処理装置及びデータ解析処理プログラム
US9679216B2 (en) Morphological automatic triangle orientation detection
US11615508B2 (en) Systems and methods for consistent presentation of medical images using deep neural networks
KR20110133416A (ko) 멀티 스레드 방식을 기반으로 하는 3d 디스플레이를 위한 비디오 처리 방법
WO2015174548A1 (en) Image diagnosis assistance apparatus, control method thereof, and program
JP2015148895A (ja) 物体数分布推定方法
Qureshi et al. A comprehensive performance evaluation of objective quality metrics for contrast enhancement techniques
JP7476487B2 (ja) 検出支援装置、検出支援方法、及びプログラム
JP2022096883A (ja) 評価システム、評価方法、及びプログラム
JP6527765B2 (ja) シワ状態分析装置及びシワ状態分析方法
Guo et al. Objective image fusion evaluation method for target recognition based on target quality factor
Sathananthavathi et al. Improvement of thin retinal vessel extraction using mean matting method
Yassine et al. Fully automated lung segmentation from chest radiographs using SLICO superpixels
Wu et al. A color edge extraction method on color image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7476487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150