JP2020126563A - 視認性評価装置、視認性評価プログラムおよび視認性評価方法 - Google Patents

視認性評価装置、視認性評価プログラムおよび視認性評価方法 Download PDF

Info

Publication number
JP2020126563A
JP2020126563A JP2019020152A JP2019020152A JP2020126563A JP 2020126563 A JP2020126563 A JP 2020126563A JP 2019020152 A JP2019020152 A JP 2019020152A JP 2019020152 A JP2019020152 A JP 2019020152A JP 2020126563 A JP2020126563 A JP 2020126563A
Authority
JP
Japan
Prior art keywords
image
test
recognition
visibility
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019020152A
Other languages
English (en)
Other versions
JP6616536B1 (ja
Inventor
寛惠 榎
Hiroe Enoki
寛惠 榎
裕治 太田
Yuji Ota
裕治 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Enoki Hiroe
Original Assignee
Enoki Hiroe
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Enoki Hiroe filed Critical Enoki Hiroe
Priority to JP2019020152A priority Critical patent/JP6616536B1/ja
Application granted granted Critical
Publication of JP6616536B1 publication Critical patent/JP6616536B1/ja
Publication of JP2020126563A publication Critical patent/JP2020126563A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】視認性を評価する技術を提供する。【解決手段】代表的な本発明の視認性評価装置の一つは、視認性の評価対象とする画像を被検画像として取得する取得部と、被検画像を異なるぼかし量で処理して複数のぼかし画像を生成する処理部と、ぼかし画像について画像認識の試験を行って試験結果を取得する試験部と、試験結果に基づいて画像認識が妥当となる限界のぼかし量を求め、限界のぼかし量に応じた値を視認性の評価値(以下「認識容易度」)とする判定部とを備える。【選択図】図1

Description

本発明は、視認性評価装置、視認性評価プログラムおよび視認性評価方法に関する。
神経膠腫(グリオーマ)などの脳腫瘍の摘出手術では、脳腫瘍を正確に摘出することによって、患者の5年生存率が高まることが知られている。そのため、脳腫瘍の摘出手術では、正常な脳部位と異常な腫瘍部位とを区別するために、脳機能マッピングという検査が行われる。
この脳機能マッピングでは、手術者が、患者の脳表面の局所部位に弱い電気刺激を与えながら、覚醒下の患者に対して局所部位の脳機能に係わるタスクを与える。
局所的な電気刺激にかかわらず患者がタスクを実行できた場合、その局所部位は、タスクと無関係な部位(腫瘍部位の可能性大)であると判断される。
一方、局所的な電気刺激によって患者がタスクを実行できない場合、その局所部位は、実行不能になったタスクに必要な脳部位(正常部位の可能性大)であると判断される。
このようなタスクの一つに、画像カードを提示して、絵柄の名称を回答してもらうネーミングタスクがある。
このネーミングタスクにおいては、画像によって患者が回答に迷うケースが散見される。その場合、正常部位か腫瘍部位かを即断することは難しい。そのため、手術者は、慎重を期して質問を繰り返すなど、脳機能マッピングに時間がかかっていた。
このような理由から、脳機能マッピングの確実性と効率性を高めるため、ネーミングタスクに使用する画像として、名称を即座に回答できる画像を術前に選択しておくことが重要になる。
なお、非特許文献1には「画像から想起される名称のバリエーションが多いほど、どの名称を回答すべきか迷い、回答時間が長くなる」旨の知見が開示される。
Nishimoto Takehiko「Japanese normative set of 359 pictures」 Behavior Research Methods 2005 37(3) 第398-416頁(https://link.springer.com/content/pdf/10.3758%2FBF03192709.pdf)
ネーミングタスクについて実験を行うと、非特許文献1が指摘する画像(複数の名称を想起させる画像)の他に、回答に時間がかかる画像が存在する。
例えば、次のような画像である。
(1)複雑
(2)形を捉えづらい
(3)コントラストや色が鮮明でない
(4)余分な要素による情報過多
(5)必要な特徴を欠く情報不足
(6)目を惹かない
(7)適切でない配色
(8)デフォルメ
(9)見慣れない視点や角度
これらの画像は、「見やすさ」や「分かりやすさ」や「目の惹きやすさ」などの視認のしやすさ(以下「視認性」という)を欠く画像である。視認性が低い画像の場合、被験者は画像の視認までに時間を要するため(または視認できないため)、回答に時間がかかってしまう。そこで、ネーミングタスク用の画像を準備する際には、視認性の高さを選択指標の一つとして評価することが好ましい。
また、視覚媒体としての画像として、広告や標識やピクトグラムや看板や動画や写真や書籍やフォントや絵文字や記号や紙面や図面や操作画面などがある。これら視覚媒体の画像などにおいても、「見やすさ」や「分かりやすさ」や「目の惹きやすさ」が要望される。その観点から、視覚媒体としての画像全般においても視認性を評価する技術が望まれる。
しかしながら、上述した非特許文献1には、この視認性を評価する技術について開示が見当たらない。
そこで、本発明は、視認性を評価する技術を提供することを目的とする。
上記課題を解決するために、代表的な本発明の視認性評価装置の一つは、視認性の評価対象とする画像を被検画像として取得する取得部と、被検画像を異なるぼかし量で処理して複数のぼかし画像を生成する処理部と、ぼかし画像について画像認識の試験を行って試験結果を取得する試験部と、試験結果に基づいて画像認識が妥当となる限界のぼかし量を求め、限界のぼかし量に応じた値を視認性の評価値(以下「認識容易度」)とする判定部とを備える。
本発明により、視認性を評価することが可能になる。
なお、上記した以外の課題、構成及び効果については、以下の実施形態の説明により明らかにされる。
実施例1の視認性評価装置100の概略構成を示すブロック図である。 実施例1における認識容易度の検出処理を示す流れ図である。 複数のぼかし画像G(1)〜G(n)を例示する図である。 ぼかし画像G(i)を提示する端末33を例示する図である。 設定部45による境界値BVの設定処理を示す流れ図である。 空間分布Dの実験結果を示す図である。 空間分布Dを範囲A,Bに区分した様子を示す図である。 視認性評価装置の全体動作を示す流れ図である。 実施例2の視認性評価装置200の概略構成を示すブロック図である。 実施例2の機械学習器300の基本構成を説明する図である。 機械学習器300の訓練データ400の一部を示す図である。 実施例2における認識容易度の検出処理を示す流れ図である。
以下、図面に基づいて、発明の実施形態を説明する。
実施例1は、ユーザ試験を利用して視認性を評価する実施形態である。
(実施例1の構成説明)
図1は、実施例1の視認性評価装置100の概略構成を示すブロック図である。
同図において、視認性評価装置100は、取得部10、処理部20、試験部30、および判定部40の機能を備えて構成される。
取得部10は、視認性の評価対象とする画像を被検画像として取得し、処理部20に伝達する。この取得部10は、内蔵カメラや外部カメラから、ユーザが撮影した視覚媒体の電子データを被検画像として取得することができる。また、取得部10は、被検画像を画像ファイルや動画ファイルやデータファイル(pdfファイル、SVGファイル、HTMLファイルなど)その他の電子データとして取得することもできる。
処理部20は、被検画像を異なる複数のぼかし量で処理することにより、僅かにぼかした画像から、視認が不可能なほどにぼかした画像まで、2つ以上のぼかし画像を生成する。複数のぼかし画像は、試験部30に伝達される。
試験部30は、ユーザ試験を行うために、提示部31および入力部32を備える。試験部30は、視認性評価装置100のユーザに対して、ぼかし量の大きい順に、複数のぼかし画像を提示部31に提示する。ユーザは、提示されるぼかし画像について視認を試みる(画像認識の試験)。ユーザは、視認を試みた結果(試験結果)を、操作入力や音声入力やジェスチャ入力などにより試験部30の入力部32に入力する。
判定部40は、試験結果に基づいて画像認識が妥当となる最大のぼかし量(以下「限界ぼかし量」という)を求め、その限界に対応する値を認識容易度とする。
また、判定部40は、被検画像の認識容易度を境界値BVと比較することにより、被検画像が『視認良好』か否かを評価する。判定部40は、この境界値BVを設定するための設定部45を備える。境界値BVについては後述する。
上述した視認性評価装置100の構成は、専用の装置により実現される他に、例えば、パソコンやタブレットやスマートフォンや携帯端末やカメラなどのコンピュータにおいて視認性評価プログラム(アプリを含む)を実行することにより実現される。
また、視認性評価装置100の一部または全部を、ネットワークやクラウドやデータセンタのサーバ上に設けてもよい。この場合、サーバは、通信接続されたクライアント端末(パソコンやタブレットやスマートフォンや携帯端末やカメラなど)を認証し、クライアント端末を仲介としてユーザに「被検画像の視認性を評価するサービス」を提供することが可能になる。
(実施例1における認識容易度の検出)
まず先に、視認性評価装置100による認識容易度の検出処理について説明する。
図2は、実施例1における認識容易度の検出処理を示す流れ図である。
以下、同図に示すステップ番号に沿って説明する。
ステップS101: 処理部20は、取得部10から伝達された被検画像に対して、最小ぼかし量b(1)〜最大ぼかし量b(n)でぼかし処理を施し、n個のぼかし画像G(1)〜G(n)を生成する。なお、添え字nは2以上の自然数である。
図3は、複数のぼかし画像G(1)〜G(n)を例示する図である。
同図において、ぼかし画像G(1)は、被検画像の輪郭やディテールを僅かにぼかした程度の画像であり、ぼかし画像G(n)は、被検画像としての視認が不可能な程度にぼかした画像である。途中のぼかし画像は、与えるぼかし量を変化させてぼかし処理を実施した画像、または、ぼかし処理を重ねる回数によりぼかし量を変化させた画像である。ちなみに、主要なぼかし画像についてはぼかし処理により作成し、主要なぼかし画像の間に挿入されるぼかし画像については、主要なぼかし画像のオーバーラップ処理により補間的に生成してもよい。
ここでのぼかし処理は、人間の視認性を低下させるぼかし処理であればよい。例えば、ガウスぼかし処理のように、人間がぼんやり見る非合焦状態を再現するものでもよい。また、像流れ処理や像ゆらぎ処理のように、人間の視線が泳ぐ状態やカメラの手振れを再現するものでもよい。さらに、モザイク処理のように、空間解像度を低下させる処理でもよい。また、空間ローパスフィルタのように、画像の高域空間周波数成分を削減する処理でもよい。さらに、曇りガラスや、フォギー効果や、軟焦点効果や、レンズ収差や、色ずらし処理や、画像のずらし多重や、ノイズ重畳や、像歪みなどのぼかしを、模擬する画像処理でもよい。また、明度の低下処理や暗部の階調を潰す処理や黒潰れ処理のように暗所におけるぼかし(視認性の低下)を模擬する画像処理でもよい。さらに、コントラストの低下処理や階調の削減処理にように、明暗がぼんやりとする視認性の低下を模擬する画像処理でもよい。さらに、減色処理や白黒や特定色にモノクロ化する処理のように、色がぼやける視認性の低下を模擬する画像処理でもよい。また、高輝度側に飽和させる処理(白飛び処理など)のように、急に明るくなって視認性がぼやける状態を模擬する画像処理でもよい。
ステップS102: 試験部30は、ユーザ試験に先だって、限界ぼかし量Lに初期値0を代入し、ぼかし画像の順番iに初期値nを代入する。
ステップS103: 試験部30は、ぼかし画像G(i)を提示部31に所定時間ずつ提示する。
後述(ステップS108)するように、順番iはnから1まで降順に切り替わる。その結果、提示部31には、図3に示す矢印の方向順に、視認が不可能なほどのぼかし画像G(n)から始まって、段階的に鮮明になるぼかし画像G(i)が提示される。
図4は、このぼかし画像G(i)を提示する端末33を例示する図である。
同図に示す端末33は、タッチパネルの画面を備え、提示部31の表示エリアと共に、入力部32の操作エリアも一緒に設けられる。また、端末33には、入力部32の音声入力用のマイク(不図示)や、ジェスチャ入力用の光受光部またはカメラ(不図示)も設けられる。
ステップS104: ユーザは、ヒントクイズの形式(映像がヒントとして順々に示され、答えが分かった時点でボタンを押す形式)で、提示部31に提示されるぼかし画像G(i)が視認可になった段階で、端末33の入力部32を操作(タップ操作や音声入力やジェスチャ入力など)する。入力部32に入力された操作は「視認可」の意思を示す操作イベントとして、試験部30に伝達される。
ステップS105: 試験部30は、ぼかし画像G(i)の提示期間中に「視認可」の操作イベントが発生するか否かを判定する。「視認可」の操作イベントが発生すると、試験部30はステップS106に動作を移行する。一方、ぼかし画像G(i)の提示期間が終了した時点で「視認可」の操作イベントが発生していない場合、試験部30はステップS107に動作を移行する。
ステップS106: 試験部30は、「視認可」の操作イベントが発生した時点で、提示中のぼかし画像G(i)のぼかし量b(i)を、視認可の限界ぼかし量Lに代入する。
このユーザ試験では、「視認可」の操作イベントは初回のみ有効とし、限界ぼかし量Lへの代入処理も初回のみとする。その場合、操作イベント以降のぼかし画像の提示は、クイズの解答表示の意味合いとなるため、ぼかし画像の表示間隔を短縮することによりユーザ試験の所要時間を短縮する。
なお、ユーザが、後続の鮮明なぼかし画像G(i)を観て、前回の「視認可」が勘違いであることに気付き、「視認可」の操作を繰り返す場合もある。このような操作が多いユーザについては、限界ぼかし量Lへの代入処理を上書き更新の処理とし、最終的な操作イベントを有効な「視認可」としてもよい。
ステップS107: 試験部30は、n個のぼかし画像G(n)〜G(1)の提示が完了したか否かを判定する。順番iが「1」であれば、試験部30は提示完了と判定してステップS109に動作を移行する。一方、順番iが「1」より大きい場合、提示が完了していないと判定し、ステップS108に動作を移行する。
ステップS108: 試験部30は、段階的に鮮明になるぼかし画像を提示するため、順番iを1つ減らして、ステップS103に動作を移行する。
ステップS109: 判定部40は、視認可の限界ぼかし量Lに応じた値を、認識容易度とする。
例えば、判定部40は、次式を用いて、認識容易度を求める。
認識容易度R[%]=(限界ぼかし半径)/(絵柄半径) × 100
・・・[1]
式[1]に示す認識容易度Rは、限界ぼかし量Lに相当する限界ぼかし半径[pixel]を、絵柄がおよそ収まる円の半径[pixel]でサイズ調整(正規化)した百分率の値である。
上述した一連の処理により、被検画像の認識容易度が得られる。
(境界値BVの設定処理)
続いて、視認性の臨界的な境界を示す境界値BVを設定する処理について説明する。
図5は、設定部45による境界値BVの設定処理を示す流れ図である。
以下、同図に示すステップ番号に沿って説明する。
ステップS201: 設定部45は、境界値BVの設定用に複数の訓練画像を収集する。複数の訓練画像には、視認性評価装置100において視認性を過去に評価した被検画像を使用してもよい。また、視認性評価装置100の開発チームが新たに収集した画像でもよいし、クラウド上からインターネットなどを介して(例えば自動的に)収集した画像でもよい。なお、訓練画像について、後述する回答時間および認識容易度のデータが収集可能であれば、訓練画像の画像データの収集は不要である。
ステップS202: 設定部45は、訓練画像ごとに、ネーミングタスクの実験結果である回答時間(視認にかかる時間)をデータ収集する。
ステップS203: 設定部45は、訓練画像ごとに、認識容易度をデータ収集する。
ステップS204: 設定部45は、訓練画像それぞれに(回答時間,認識容易度)の座標を与えて、訓練画像の群について空間分布Dを得る。
図6は、空間分布Dの実験結果を示す図である。
同図は、回答時間(中央値)を横軸とし、認識容易度(平均値)を縦軸として、訓練画像をそれぞれプロットした実験結果である。
図6に示す実験は、32名の20代女性を被験者とし、訓練画像ごとに回答時間と認識容易度を実験している。
なお、1人の被験者に対して、同じ訓練画像について認識容易度の実験と回答時間の実験とを行うと、先の認識容易度の実験により正解を知った状態で後の回答時間の実験を行うため、後知恵によって実験値が偏向する懸念がある。
そこで、実験に先立って、被験者をグループPa,Pbにグループ分けする。また、訓練画像についても、訓練画像の群Gaと訓練画像の群Gbとにグループ分けする。そして、グループPaの被験者に対しては、訓練画像の群Gaについて回答時間の実験を行い、訓練画像の群Gbについて認識容易度の実験を行った。グループPbの被験者に対しては、訓練画像の群Gbについて回答時間の実験を行い、訓練画像の群Gaについて認識容易度の実験を行った。このような「たすき掛け方式」の実験とその順序により、上述した後知恵による実験値の偏向を回避した。
実験の結果、個々の訓練画像において、複数の回答時間と、複数の認識容易度が得られる。
この内、回答時間の実験値については、少数の被験者において回答時間が極端に遅れるなどの傾向が散見された。この状態で回答時間の平均を代表値とすると、少数の被験者の極端な遅れが平均に影響して代表値を偏らせてしまう。そこで、回答時間の実験結果としては、回答時間の上限側および下限側の影響を除くため、中央値(メディアン値)を代表値として採用した。
一方、認識容易度については、おおむね安定した結果が得られ、極端な個人差は生じなかった。そこで、認識容易度の実験結果としては、認識容易度の平均値を代表値として採用した。
ステップS205: 設定部45のデータ収集により作成される空間分布Dは、図6に示すようにL字状に分布する特性を示す。
設定部45は、この空間分布DのL字状の特性に基づいてクラス分けの処理を行い、空間分布Dを次の範囲A,Bに区分する。
●回答時間が短い側に集中する認識容易度の範囲A
●回答時間が長い側まで分散する認識容易度の範囲B
図7は、空間分布Dを範囲A,Bに区分した様子を示す図である。
ステップS206: 認識容易度の範囲A,Bは、回答時間の広がり方に有意な違いがあるため、範囲A,Bの境界は、臨界的意義を有する境界となる。
そこで、設定部45は、認識容易度の範囲A,Bの境界を求め、臨界的意義を有する境界値BVとする。
この境界値BVよりも、被検画像の認識容易度が上であれば、被検画像は範囲Aに属するため、回答時間は短い側に集中すると推定され、視認良好であると評価できる。
図7に示す範囲A,Bから求めた、臨界的意義を有する境界値BVは次の値となる。
臨界的意義を有する境界値BV = 6.7[%]
・・・[2]
ステップS207: 設定部45は、判定部40に境界値BVを設定(視認性評価装置100の運用中であれば境界値BVを随時更新)する。
以上の動作により、視認性評価装置100では、視認良好か否かを評価するための境界値BVが使用可能になる。
(実施例1の全体動作)
続いて、実施例1の全体動作について説明する。
図8は、視認性評価装置100の全体動作を示す流れ図である。
以下、同図に示すステップ番号に沿って説明する。
ステップS301: ユーザは、視認性の評価対象とする画像を、被検画像として視認性評価装置100に入力する。取得部10は、入力された被検画像を処理部20に伝達する。
ステップS302: 視認性評価装置100は、被検画像について認識容易度を求める。この動作の詳細については、図2の流れ図に基づいて既に説明したため、ここでの重複説明は省略する。
ステップS303: 判定部40は、視認性の評価値として、被検画像を入力したユーザに対して、認識容易度を返答する。
ステップS304: 判定部40は、被検画像の認識容易度が境界値BVより上とみなせる場合、ステップS305に動作を移行する。それ以外の場合、判定部40は、被検画像の視認性の評価を完了する。
ステップS305: ここでは、被検画像の認識容易度が境界値BVより上とみなせるため、被検画像は「回答時間が短い側に集中する認識容易度の範囲A(図7参照)」に属すると推定される。そこで、判定部40は、被検画像を入力したユーザに対して、「被検画像の視認性は良好である」旨の評価情報を出力する。
以上の動作により、被検画像についての視認性の評価が完了する。
(実施例1の効果)
(1)脳機能マッピングにおいては、被験者は頭骨を固定され、手術台の上に横たわる。その状態では、眠くなったり、注視を維持できなかったり、被験者の視界はぼやけやすい。そこで、被検画像の認識がぎりぎり可能となる視界のぼやけを示す指標として、本願発明者は「認識容易度」を導入する。認識容易度の高い画像は、視界がぼやけても認識が容易な画像であるため、視認性が高い画像と評価できる。実施例1の視認性評価装置100は、被検画像についてこの認識容易度を求める。したがって、被検画像の視認性を評価することが可能になる。
(2)実施例1では、視界のぼやけ具合を、被検画像に施すぼかし量を複数段階に異ならせることによって等価的に模擬している。通常、視界のぼやけ具合は視覚に関する定性的なパラメータであるため、そのままでは数値化は困難である。しかし、実施例1は、視界のぼやけ具合を画像のぼかし量によって模擬する。このぼかし量は画像処理上の数値である。したがって、認識容易度は、ぼかし量という数値に基づいて、視認性を数値によって評価することが可能になる。
(3)認識容易度の高い被検画像は、注視を維持できずに視界が定まらない状態であっても、目に入りやすく一目で把握しやすい画像である。その観点によれば、認識容易度は、視覚媒体としての画像全般において、「見やすさ」や「分かりやすさ」や「目の惹きやすさ」を評価する指標になる。したがって、視覚媒体の画像全般(広告や標識やピクトグラムや看板や動画や写真や書籍やフォントや絵文字や記号や紙面や図面や操作画面など)について認識容易度を求めることにより、「見やすさ」や「分かりやすさ」や「目の惹きやすさ」を評価することが可能になる。
(4)実施例1では、認識容易度の判定に境界値BVを使用する。この境界値BVは、図7に示すように「回答時間が短い側に集中する認識容易度の範囲A」と「回答時間が長い側まで分散する認識容易度の範囲B」とに有意に分ける値(臨界的意義を有する値)である。したがって、被検画像の認識容易度が境界値BVより上であれば、その被検画像の回答時間は短くなる可能性が大であり、視認性は良好であると判定することが可能になる。
(5)実施例1では、ユーザインターフェースとして端末33を備える。この端末33の提示部31には、ぼかし量の大きい順に複数のぼかし画像G(n)〜G(1)が順番に入れ替わって提示される。ユーザは、段階的に鮮明になるぼかし画像を観察することで、どの段階で視認可能になったかをはっきり知覚することが可能になる。そのため、認識容易度を明確に求めることが可能になる。
(6)実施例1では、さらに端末33に入力部32を備える。この入力部32はユーザから視認試験の結果を取得する。そのため、ユーザから意思表示を聞き取るための実験立会人などは不要となり、ユーザ1人でも認識容易度を求めることが可能になる。
(7)視認性の評価には、回答時間の短さも判断材料になり得る。しかし、回答時間のユーザ試験は、被検画像を見てから名称を答えるまでの回答時間をコンマ1秒単位で測定するものであって、「早押しクイズ」の形式に相当する。そのため、被験者の中枢神経や運動神経や集中力、さらには試験環境の要因が大きく影響し、同じ被験者が同じ被検画像について試験を行っても、回答時間は毎回変動し再現性が低い。また、被験者が被検画像とその名称を一度記憶してしまえば、条件反射的に回答時間が短くなる。そのため、同じ被験者が同じ被検画像について回答時間の試験を行う際には、日を改めるなど時間を置く必要があった。
これらの理由から「回答時間」は視認性を評価する指標としては不都合な点が多かった。
それに対して、認識容易度のユーザ試験は、段階的に鮮明になるぼかし画像をヒントとして、ユーザが視認可になった段階で入力部32を操作するものであって、「ヒントクイズ」の形式に相当する。そのため、1つのぼかし画像の提示期間内であればユーザは落ち着いて入力部32を操作することが可能になる。そのため、被験者の中枢神経や運動神経や集中力、さらには試験環境などの要因はさほど影響せず、同じ被験者が同じ被検画像について試験を行っても、認識容易度は高い再現性が得られる。また、被験者が被検画像を一度記憶してしまっても認識容易度は条件反射的に答えるものではなく、ぼかし画像が何に見えるかを考えながら答えるものである。そのため、日を改めて時間を置かずにユーザ試験を繰り返しても、認識容易度は比較的変化せず再現性が高い。
これらの理由から「認識容易度」は視認性を客観的に評価する指標として優れている。
実施例2は、ユーザ(被験者)の代わりに機械学習器を利用して視認性を評価する実施形態である。
(実施例2の構成説明)
図9は、実施例2の視認性評価装置200の概略構成を示すブロック図である。
同図において、視認性評価装置200は、取得部10、処理部20、試験部50、および判定部60の機能を備えて構成される。試験部50は、機械学習器300を備える。
なお、試験部50および判定部60以外については、実施例1(図1参照)と同様のため、ここでの重複説明を省略する。
(機械学習器300の基本構成)
図10は、機械学習器300の基本構成を説明する図である。
同図において、ぼかし画像などの映像情報は、画像解析の解析内容に適した前処理(クロップ、リサイズ、畳み込み前のパディングなど)が施された後、入力層310に入力される。
入力層310の映像情報は、畳み込み層・活性化関数321およびプーリング層322を介して処理され、画像空間の局所的な特徴に応じて活性化するニューロンからなる特徴マップに変換される。この畳み込み層・活性化関数321およびプーリング層322は、画像解析に適した層数だけ多層化される。
多層化された畳み込み層・活性化関数321およびプーリング層322を経由した特徴マップのニューロンの値はシリアル化された後、ニューラルネットワーク330に入力される。ニューラルネットワーク330は画像解析に適する層数でニューロンを結合(例えば全結合)して構成される。ニューラルネットワーク330の最終端の出力層340の複数のニューロンからは、画像解析の結果(尤度など)を示す活性化パターンが出力される。
ここでは、機械学習器300の基本構成を1つの系統で説明したが、画像解析の内容によっては基本構成を並列ないし途中分岐にして複数系統により構成してもよい。また、途中に過去のニューロンの状態を保持する層を設けることにより、時間軸方向の画像(動画)の画像認識を可能にしてもよい。
(機械学習器300の機械学習)
続いて、機械学習器300の機械学習について説明する。
図11は、機械学習器300の訓練データ400の一部を示す図である。
図11に示す訓練画像410は、被検画像に含まれる可能性が高い円形、矩形、三角などの基本パーツの画像群である。
出力層340を構成する複数のニューロンには、これら基本パーツごとに独立した活性化パターンが教師値420として予め割り当てられる。
訓練データ400は、これらの訓練画像410と教師値420とを含むデータセットを集めた群により構成される。
機械学習器300の畳み込み層・活性化関数321やニューラルネットワーク330内のニューロンそれぞれは、重み配列Wやバイアスbiasを有する。これらの重み配列Wやバイアスbiasは、訓練データ400を用いた機械学習(誤差逆伝搬法など)を繰り返すことにより逐次更新され、出力層340は学習した教師値に近い活性化パターンを出力するようになる。
(実施例2における認識容易度の検出)
続いて、ユーザ(被験者)の代わりに機械学習器300を利用して認識容易度を自動的に検出する動作について説明する。
図12は、実施例2における認識容易度の検出処理を示す流れ図である。
以下、同図に示すステップ番号に沿って説明する。なお、特に断らない動作については実施例1と同じ動作である。
ステップS501: 処理部20は、取得部10から伝達された被検画像に対して、最小ぼかし量b(1)〜最大ぼかし量b(n)でぼかし処理を施し、n個のぼかし画像G(1)〜G(n)を生成する。なお、添え字nは2以上の自然数である。
ステップS502: 試験部50は、機械学習器300の入力層310に被検画像を入力する。機械学習器300の出力層340には、被検画像に含まれる基本パーツ(機械学習済み)の組み合わせに応じた活性化パターンが画像認識の試験結果として現れる。試験部50は、この活性化パターンを被検画像の画像認識の正解値として一時記憶する。
ステップS503: 試験部50は、ぼかし画像の順番iに初期値「1」を代入する。
ステップS504: 試験部50は、機械学習器300の入力層310にぼかし画像G(i)を入力する。機械学習器300の出力層340には、ぼかし画像G(i)に残存する基本パーツ(機械学習済み)の組み合わせに応じて活性化パターンが現れる。試験部50は、ぼかし画像G(i)の活性化パターンを画像認識の試験結果として取得する。
ステップS505: 判定部60は、試験結果と正解値との距離(活性化パターンのパターン列の差分二乗和、差分二乗平均、その平方根、差分絶対値和、差分絶対値平均など)を求める。なお、この距離を正解値の大きさなどを基準に正規化してもよい。
ステップS506: 判定部60は、試験結果と正解値との距離が妥当な範囲を超えるか否かを判定する。
ここでの妥当な範囲については、ユーザ試験においてぎりぎり視認可となったぼかし画像を収集し、収集したぼかし画像について求めた「距離」の値を基準に設定すればよい。
また、ぼかし量に対する距離の変化率を求め、その変化率の変曲点などの臨界点を基準に妥当な範囲を適応的に決定してもよい。
試験結果と正解値との距離が妥当な範囲を超える場合、判定部60はぼかし画像G(i)は視認不可になったと判断してステップS509に動作を移行する。
試験結果と正解値との距離が妥当な範囲に収まる場合、判定部60はぼかし画像G(i)は視認可であると判断してステップS507に動作を移行する。
ステップS507: 試験部50は、画像認識の対象を次のぼかし画像に進めるため、順番iを1つ増やす。
ステップS508: 試験部50は、n個のぼかし画像G(1)〜G(n)の画像認識が完了したか否かを判定する。順番iが「n」以下の場合、画像認識が完了していないと判定し、ステップS504に動作を移行する。一方、順番iが「n」を超えていれば、試験部50は画像認識が完了したと判定してステップS509に動作を移行する。
ステップS509: 判定部60は、順番iの1つ前までが視認可の限界と判断し、視認可の限界ぼかし量Lに、ぼかし量b(i−1)を代入する。なお、iが「1」の場合、ぼかし量b(1−1)=b(0)=0とする。
ステップS510: 判定部60は、視認可の限界ぼかし量Lに応じた値を、認識容易度とする。
上述した処理により、被検画像の認識容易度が機械学習器300を利用して自動的に得られる。
(実施例2のその他動作について)
実施例2のその他の動作については、機械学習器300で求めた認識容易度を使用する点を除き、実施例1の動作(例えば図5〜図8参照)と同様であるため、ここでの重複説明は省略する。
(実施例2の効果)
実施例2は、ユーザの画像認識を機械学習器300の画像認識で代替することにより、実施例1の効果と同様の効果が得られる。
さらに、実施例2は、次の効果も奏する。
(1)実施例2では、画像認識の機械学習を行った機械学習器300を使用して、ぼかし画像について画像認識の試験を行う。その結果、実施例1のようなユーザ(人間の被験者)を必要とせずに、認識容易度を自動的に求めることが可能になる。
(2)実施例2では、訓練画像として、被検画像を構成する可能性がある基本パーツを機械学習器300に学習させる。そのため、機械学習器300にとって未学習(つまり初見)の画像であっても、機械学習器300は基本パーツの活性化パターンという形で画像認識の試験結果を出力することが可能になる。
(3)実施例2では、被検画像の活性化パターン(画像認識の正解値)と、ぼかし画像の活性化パターン(視界がぼやけた状態での画像認識の試験結果)との距離という物理量を新たに導入する。この距離は、画像(視界)がぼやけたことによる画像認識の変容を示す。したがって、この距離が妥当な範囲内か否かを判定することにより、ぼかし画像が視認可か否かを人間の被験者に代わって評価することが可能になる。
(実施形態の補足事項)
なお、上述した実施形態では、機械学習器300として、畳み込みニューラルネットワーク(図10参照)を使用した。しかしながら、本発明はこれに限定されない。
例えば、機械学習器として、主として畳み込み層・活性化関数を多層化したFCN(Fully Convolutional Network)を採用してもよい。このFCNは、基本パーツを機械学習することにより、入力される映像情報(被検画像やぼかし画像)に含まれる基本パーツを特徴抽出し、基本パーツの組み合わせに応じた特徴マップの活性化パターン(活性化パターンからなる一種の画像情報)を出力するようになる。したがって、被検画像の特徴マップとぼかし画像の特徴マップとの距離(特徴マップの画素差の差分二乗和、差分二乗平均、その平方根、差分絶対値和、差分絶対値平均など)に基づいても、ぼかし画像の画像認識が妥当か否かを判定することが可能になる。
また例えば、このような機械学習器としては、決定木学習、相関ルール学習、ニューラルネットワーク、遺伝的プログラミング、帰納論理プログラミング、サポートベクターマシン、クラスタリング、ベイジアンネットワーク、強化学習、表現学習、主成分分析、エクストリーム・ラーニング・マシン、およびその他の機械学習技法の少なくとも一つの技法に基づく学習モデルを採用してもよい。
なお、上述した実施形態では、画像認識が妥当となる最大のぼかし量を「画像認識が妥当となる限界のぼかし量」として採用した。しかしながら、本発明はこれに限定されない。例えば、画像認識が妥当となる一つ前のぼかし量を「画像認識が妥当となる限界のぼかし量」として採用することもできる。また例えば、画像認識が妥当から妥当でなくなった瞬間のぼかし量を「画像認識が妥当となる限界のぼかし量」として採用することもできる。
また、上述した実施形態では、実施例1,2を別々に説明したが、本発明はこれに限定されない。例えば、実施例1と実施例2とを一緒に実行し、機械学習器300による認識容易度が人間の認識容易度に近づくように、機械学習器300や判定部60の動作パラメータを自動ないし手動で随時に調整してもよい。
さらに、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。
また、有る実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、有る実施例の構成に他の実施例の構成を加えることも可能である。
さらに、上述した構成の一部について、構成の追加・削除・置換をすることが可能である。
本発明は、視覚媒体の画像全般について視認性を評価する産業上の用途において利用可能である。
BV…境界値、10…取得部、20…処理部、30…試験部、31…提示部、32…入力部、33…端末、40…判定部、45…設定部、50…試験部、60…判定部、100…視認性評価装置、300…機械学習器、310…入力層、321…畳み込み層・活性化関数、322…プーリング層、330…ニューラルネットワーク、340…出力層、400…訓練データ、410…訓練画像、420…教師値

Claims (6)

  1. 視認性の評価対象とする画像を、被検画像として取得する取得部と、
    前記被検画像からぼかし量の異なる複数のぼかし画像を生成する処理部と、
    前記ぼかし画像について画像認識の試験を行い、試験結果を取得する試験部と、
    前記試験結果に基づいて前記画像認識が妥当となる限界のぼかし量を求め、前記限界のぼかし量に応じた値を視認性の評価値(以下「認識容易度」)とする判定部と、
    を備えたことを特徴とする視認性評価装置。
  2. 請求項1に記載の視認性評価装置において、
    前記判定部は、
    訓練画像の群について「視認にかかる回答時間」と「前記認識容易度」とを軸として分布を収集し、前記分布を「前記回答時間が短い側に集中する前記認識容易度の範囲A」と「前記回答時間が長い側まで分散する前記認識容易度の範囲B」とにクラス分けして得られる前記範囲A,Bの境界値を設定または更新する設定部を含み、
    前記被検画像について求めた前記認識容易度が前記境界値より上の場合に、前記被検画像の視認性は良好であると判定する
    ことを特徴とする視認性評価装置。
  3. 請求項1〜2のいずれか1項に記載の視認性評価装置において、
    前記試験部は、
    複数の前記ぼかし画像を前記ぼかし量の大きい順に提示する提示部と、
    前記ぼかし画像を提示されたユーザから視認結果を取得するための入力部とを備える
    ことを特徴とする視認性評価装置。
  4. 請求項1〜2のいずれか1項に記載の視認性評価装置において、
    前記試験部は、
    訓練画像と教師値とを含むデータセットの群を訓練データとして前記画像認識の機械学習を行った機械学習器を備え、前記機械学習器を用いて前記ぼかし画像について前記画像認識の試験を行う
    ことを特徴とする視認性評価装置。
  5. コンピュータを、請求項1〜4のいずれか1項に記載の前記取得部、前記処理部、前記試験部、および前記判定部として機能させる
    ことを特徴とする視認性評価プログラム。
  6. 視認性の評価対象とする画像を、被検画像として取得する入力ステップと、
    前記被検画像からぼかし量の異なる複数のぼかし画像を生成する処理ステップと、
    前記ぼかし画像について画像認識の試験を行い、試験結果を取得する試験ステップと、
    前記試験結果に基づいて前記画像認識が妥当となる限界のぼかし量を求め、前記限界のぼかし量に応じた値を視認性の評価値(以下「認識容易度」)とする判定ステップと、
    を備えて、視認性評価サービスを提供することを特徴とする視認性評価方法。
JP2019020152A 2019-02-06 2019-02-06 視認性評価装置、視認性評価プログラムおよび視認性評価方法 Active JP6616536B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019020152A JP6616536B1 (ja) 2019-02-06 2019-02-06 視認性評価装置、視認性評価プログラムおよび視認性評価方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020152A JP6616536B1 (ja) 2019-02-06 2019-02-06 視認性評価装置、視認性評価プログラムおよび視認性評価方法

Publications (2)

Publication Number Publication Date
JP6616536B1 JP6616536B1 (ja) 2019-12-04
JP2020126563A true JP2020126563A (ja) 2020-08-20

Family

ID=68763465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020152A Active JP6616536B1 (ja) 2019-02-06 2019-02-06 視認性評価装置、視認性評価プログラムおよび視認性評価方法

Country Status (1)

Country Link
JP (1) JP6616536B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7451392B2 (ja) 2020-12-28 2024-03-18 住友重機械工業株式会社 画像処理装置、画像処理方法、画像処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048636A (ja) * 2004-07-05 2006-02-16 Internatl Business Mach Corp <Ibm> 対象コンテンツを評価する方法、コンピュータ・プログラム、システム
WO2018101015A1 (ja) * 2016-11-30 2018-06-07 株式会社ニコン・エシロール 眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ発注装置、眼鏡レンズ受注装置、眼鏡レンズ受発注システム、累進屈折力レンズ、単焦点レンズ
WO2018167879A1 (ja) * 2017-03-15 2018-09-20 三菱電機株式会社 光量調整装置、光量調整方法及び光量調整プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048636A (ja) * 2004-07-05 2006-02-16 Internatl Business Mach Corp <Ibm> 対象コンテンツを評価する方法、コンピュータ・プログラム、システム
WO2018101015A1 (ja) * 2016-11-30 2018-06-07 株式会社ニコン・エシロール 眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ発注装置、眼鏡レンズ受注装置、眼鏡レンズ受発注システム、累進屈折力レンズ、単焦点レンズ
WO2018167879A1 (ja) * 2017-03-15 2018-09-20 三菱電機株式会社 光量調整装置、光量調整方法及び光量調整プログラム

Also Published As

Publication number Publication date
JP6616536B1 (ja) 2019-12-04

Similar Documents

Publication Publication Date Title
Rockcastle et al. Contrast measures for predicting perceptual effects of daylight in architectural renderings
Nightingale et al. Can people identify original and manipulated photos of real-world scenes?
Alamirah et al. Immersive virtual environments for occupant comfort and adaptive behavior research–A comprehensive review of tools and applications
JP5666650B2 (ja) デジタル放射線画像を閲覧するためのライトボックス効果
CN114175045B (zh) 利用亮度变化来确定用户特征
Thompson et al. Simulating visibility under reduced acuity and contrast sensitivity
CN109640786A (zh) 视觉功能检查及光学特性计算系统
WO2016001796A1 (en) Eye condition determination system
WO2001091101A1 (fr) Dispositif de traitement d&#39;image capable de traiter des images eu egard a des personnes ayant un handicap visuel, support de stockage, procede de diagnostic de l&#39;image objet et fichier de representation d&#39;images numeriques
KR20190048144A (ko) 발표 및 면접 훈련을 위한 증강현실 시스템
JP6616536B1 (ja) 視認性評価装置、視認性評価プログラムおよび視認性評価方法
Smith et al. Nonblurred regions show priority for gaze direction over spatial blur
CN108389182B (zh) 一种基于深度神经网络的图像质量检测方法及装置
Frowd et al. Constructing faces from memory: the impact of image likeness and prototypical representations
CN110941733B (zh) 一体化界面信息多重融合展示方法
Li et al. Stereoscopic 3D Image Retargeting Quality Assessment.
Lin et al. Evaluating the image quality of closed circuit television magnification systems versus a head-mounted display for people with low vision
RU2553495C1 (ru) Способ выявления феномена коллективно-когнитивного бессознательного восприятия
EP2243419A1 (de) Integrale und differentiale visuelle Objekte zur Erhebung und Optimierung des Sehvermoegens
Radun et al. Why is quality estimation judgment fast? Comparison of gaze control strategies in quality and difference estimation tasks
Itan et al. Performance of visual search tasks from various types of contour information
Rajananda et al. Subjective inflation of color saturation in the periphery under temporal overload
Bartel et al. “Do I Know You?” Altering hairstyle affects facial recognition
Rafiq et al. Reconstruction of scene using corneal reflection
Dijk et al. Evaluation of intensified image enhancement through conspicuity and triangle orientation discrimination measures

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190208

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191004

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191021

R150 Certificate of patent or registration of utility model

Ref document number: 6616536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250