JP6616536B1 - Visibility evaluation apparatus, visibility evaluation program, and visibility evaluation method - Google Patents

Visibility evaluation apparatus, visibility evaluation program, and visibility evaluation method Download PDF

Info

Publication number
JP6616536B1
JP6616536B1 JP2019020152A JP2019020152A JP6616536B1 JP 6616536 B1 JP6616536 B1 JP 6616536B1 JP 2019020152 A JP2019020152 A JP 2019020152A JP 2019020152 A JP2019020152 A JP 2019020152A JP 6616536 B1 JP6616536 B1 JP 6616536B1
Authority
JP
Japan
Prior art keywords
image
test
recognition
visibility
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019020152A
Other languages
Japanese (ja)
Other versions
JP2020126563A (en
Inventor
寛惠 榎
寛惠 榎
裕治 太田
裕治 太田
Original Assignee
寛惠 榎
寛惠 榎
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 寛惠 榎, 寛惠 榎 filed Critical 寛惠 榎
Priority to JP2019020152A priority Critical patent/JP6616536B1/en
Application granted granted Critical
Publication of JP6616536B1 publication Critical patent/JP6616536B1/en
Publication of JP2020126563A publication Critical patent/JP2020126563A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】視認性を評価する技術を提供する。【解決手段】代表的な本発明の視認性評価装置の一つは、視認性の評価対象とする画像を被検画像として取得する取得部と、被検画像を異なるぼかし量で処理して複数のぼかし画像を生成する処理部と、ぼかし画像について画像認識の試験を行って試験結果を取得する試験部と、試験結果に基づいて画像認識が妥当となる限界のぼかし量を求め、限界のぼかし量に応じた値を視認性の評価値(以下「認識容易度」)とする判定部とを備える。【選択図】図1A technique for evaluating visibility is provided. One of the representative visibility evaluation apparatuses according to the present invention includes an acquisition unit that acquires an image to be evaluated for visibility as a test image, and a plurality of images obtained by processing the test image with different blur amounts. A processing unit that generates a blurred image of the image, a testing unit that performs an image recognition test on the blurred image and obtains a test result, and obtains a limit blur amount at which image recognition is appropriate based on the test result, And a determination unit that sets a value according to the amount as an evaluation value of visibility (hereinafter, “recognition degree”). [Selection] Figure 1

Description

本発明は、視認性評価装置、視認性評価プログラムおよび視認性評価方法に関する。   The present invention relates to a visibility evaluation device, a visibility evaluation program, and a visibility evaluation method.

神経膠腫(グリオーマ)などの脳腫瘍の摘出手術では、脳腫瘍を正確に摘出することによって、患者の5年生存率が高まることが知られている。そのため、脳腫瘍の摘出手術では、正常な脳部位と異常な腫瘍部位とを区別するために、脳機能マッピングという検査が行われる。   It is known that in the operation of removing a brain tumor such as glioma, the 5-year survival rate of the patient is increased by accurately removing the brain tumor. Therefore, in brain tumor extraction surgery, a test called brain function mapping is performed in order to distinguish between a normal brain region and an abnormal tumor region.

この脳機能マッピングでは、手術者が、患者の脳表面の局所部位に弱い電気刺激を与えながら、覚醒下の患者に対して局所部位の脳機能に係わるタスクを与える。   In this brain function mapping, the operator gives a task related to the brain function of the local site to the patient who is awake while giving a weak electrical stimulus to the local site of the patient's brain surface.

局所的な電気刺激にかかわらず患者がタスクを実行できた場合、その局所部位は、タスクと無関係な部位(腫瘍部位の可能性大)であると判断される。   When the patient can perform the task regardless of the local electrical stimulation, the local site is determined to be a site unrelated to the task (high possibility of a tumor site).

一方、局所的な電気刺激によって患者がタスクを実行できない場合、その局所部位は、実行不能になったタスクに必要な脳部位(正常部位の可能性大)であると判断される。
このようなタスクの一つに、画像カードを提示して、絵柄の名称を回答してもらうネーミングタスクがある。
On the other hand, when the patient cannot execute the task due to the local electrical stimulation, it is determined that the local site is a brain site (high possibility of a normal site) necessary for the task that cannot be executed.
One of such tasks is a naming task in which an image card is presented and the name of a picture is answered.

このネーミングタスクにおいては、画像によって患者が回答に迷うケースが散見される。その場合、正常部位か腫瘍部位かを即断することは難しい。そのため、手術者は、慎重を期して質問を繰り返すなど、脳機能マッピングに時間がかかっていた。
このような理由から、脳機能マッピングの確実性と効率性を高めるため、ネーミングタスクに使用する画像として、名称を即座に回答できる画像を術前に選択しておくことが重要になる。
In this naming task, there are some cases where the patient is confused by the image. In that case, it is difficult to immediately determine whether it is a normal site or a tumor site. For this reason, the surgeon took time to map brain functions, such as repeating questions carefully.
For these reasons, in order to improve the certainty and efficiency of brain function mapping, it is important to select an image that can be immediately answered as the image used for the naming task before the operation.

なお、非特許文献1には「画像から想起される名称のバリエーションが多いほど、どの名称を回答すべきか迷い、回答時間が長くなる」旨の知見が開示される。   Non-Patent Document 1 discloses the knowledge that “the more variations of names recalled from images, the more confused which name should be answered and the longer the response time”.

Nishimoto Takehiko「Japanese normative set of 359 pictures」 Behavior Research Methods 2005 37(3) 第398-416頁(https://link.springer.com/content/pdf/10.3758%2FBF03192709.pdf)Nishimoto Takehiko “Japanese normative set of 359 pictures” Behavior Research Methods 2005 37 (3) 398-416 (https://link.springer.com/content/pdf/10.3758%2FBF03192709.pdf)

ネーミングタスクについて実験を行うと、非特許文献1が指摘する画像(複数の名称を想起させる画像)の他に、回答に時間がかかる画像が存在する。   When an experiment is performed on the naming task, in addition to the image pointed out by Non-Patent Document 1 (an image reminiscent of a plurality of names), there are images that take time to answer.

例えば、次のような画像である。
(1)複雑
(2)形を捉えづらい
(3)コントラストや色が鮮明でない
(4)余分な要素による情報過多
(5)必要な特徴を欠く情報不足
(6)目を惹かない
(7)適切でない配色
(8)デフォルメ
(9)見慣れない視点や角度
For example, the image is as follows.
(1) Complex (2) Difficult to capture shape (3) Contrast and color are not clear (4) Excessive information due to extra elements (5) Insufficient information lacking necessary features (6) Not attracting attention (7) Appropriate (8) Deformation (9) Unfamiliar viewpoint and angle

これらの画像は、「見やすさ」や「分かりやすさ」や「目の惹きやすさ」などの視認のしやすさ(以下「視認性」という)を欠く画像である。視認性が低い画像の場合、被験者は画像の視認までに時間を要するため(または視認できないため)、回答に時間がかかってしまう。そこで、ネーミングタスク用の画像を準備する際には、視認性の高さを選択指標の一つとして評価することが好ましい。   These images are images that lack ease of visual recognition (hereinafter referred to as “visibility”) such as “easy to see”, “easy to understand”, and “easy to attract eyes”. In the case of an image having low visibility, the subject takes time (or cannot be visually recognized) until the image is visually recognized, and thus it takes time to answer. Therefore, when preparing an image for a naming task, it is preferable to evaluate the high visibility as one of the selection indexes.

また、視覚媒体としての画像として、広告や標識やピクトグラムや看板や動画や写真や書籍やフォントや絵文字や記号や紙面や図面や操作画面などがある。これら視覚媒体の画像などにおいても、「見やすさ」や「分かりやすさ」や「目の惹きやすさ」が要望される。その観点から、視覚媒体としての画像全般においても視認性を評価する技術が望まれる。   As an image as a visual medium, there are an advertisement, a sign, a pictogram, a signboard, a movie, a photograph, a book, a font, a pictogram, a symbol, a paper, a drawing, an operation screen, and the like. Also in these visual media images, “easy to see”, “easy to understand”, and “easy to attract eyes” are desired. From this point of view, a technique for evaluating the visibility of all images as visual media is desired.

しかしながら、上述した非特許文献1には、この視認性を評価する技術について開示が見当たらない。   However, Non-Patent Document 1 described above does not disclose a technique for evaluating the visibility.

そこで、本発明は、視認性を評価する技術を提供することを目的とする。   Accordingly, an object of the present invention is to provide a technique for evaluating visibility.

上記課題を解決するために、代表的な本発明の視認性評価装置の一つは、視認性の評価対象とする画像を被検画像として取得する取得部と、被検画像を異なるぼかし量で処理して複数のぼかし画像を生成する処理部と、ぼかし画像について画像認識の試験を行って試験結果を取得する試験部と、試験結果に基づいて画像認識が妥当となる限界のぼかし量を求め、限界のぼかし量に応じた値を視認性の評価値(以下「認識容易度」)とする判定部とを備える。   In order to solve the above problem, one of the representative visibility evaluation apparatuses of the present invention is an acquisition unit that acquires an image to be evaluated for visibility as a test image, and the test image with different blur amounts. A processing unit that generates multiple blurred images by processing, a test unit that performs image recognition tests on the blurred images and obtains test results, and obtains a limit blur amount that makes image recognition valid based on the test results And a determination unit that sets a value corresponding to the limit blur amount as an evaluation value of visibility (hereinafter, “recognition degree”).

本発明により、視認性を評価することが可能になる。
なお、上記した以外の課題、構成及び効果については、以下の実施形態の説明により明らかにされる。
According to the present invention, visibility can be evaluated.
Note that problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

実施例1の視認性評価装置100の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the visibility evaluation apparatus 100 of Example 1. FIG. 実施例1における認識容易度の検出処理を示す流れ図である。5 is a flowchart illustrating a recognition ease detection process according to the first exemplary embodiment. 複数のぼかし画像G(1)〜G(n)を例示する図である。It is a figure which illustrates the some blurred image G (1) -G (n). ぼかし画像G(i)を提示する端末33を例示する図である。It is a figure which illustrates terminal 33 which presents blurred image G (i). 設定部45による境界値BVの設定処理を示す流れ図である。7 is a flowchart showing a setting process of a boundary value BV by a setting unit 45. 空間分布Dの実験結果を示す図である。It is a figure which shows the experimental result of the spatial distribution D. 空間分布Dを範囲A,Bに区分した様子を示す図である。It is a figure which shows a mode that the spatial distribution D was divided into the ranges A and B. 視認性評価装置の全体動作を示す流れ図である。It is a flowchart which shows the whole operation | movement of a visibility evaluation apparatus. 実施例2の視認性評価装置200の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the visibility evaluation apparatus 200 of Example 2. FIG. 実施例2の機械学習器300の基本構成を説明する図である。It is a figure explaining the basic composition of the machine learning device 300 of Example 2. FIG. 機械学習器300の訓練データ400の一部を示す図である。It is a figure which shows a part of training data 400 of the machine learning device 300. 実施例2における認識容易度の検出処理を示す流れ図である。12 is a flowchart illustrating a recognition easy level detection process according to the second embodiment.

以下、図面に基づいて、発明の実施形態を説明する。   Hereinafter, embodiments of the invention will be described with reference to the drawings.

実施例1は、ユーザ試験を利用して視認性を評価する実施形態である。   Example 1 is an embodiment in which visibility is evaluated using a user test.

(実施例1の構成説明)
図1は、実施例1の視認性評価装置100の概略構成を示すブロック図である。
同図において、視認性評価装置100は、取得部10、処理部20、試験部30、および判定部40の機能を備えて構成される。
(Description of Configuration of Example 1)
FIG. 1 is a block diagram illustrating a schematic configuration of a visibility evaluation apparatus 100 according to the first embodiment.
In the figure, the visibility evaluation apparatus 100 is configured to include functions of an acquisition unit 10, a processing unit 20, a test unit 30, and a determination unit 40.

取得部10は、視認性の評価対象とする画像を被検画像として取得し、処理部20に伝達する。この取得部10は、内蔵カメラや外部カメラから、ユーザが撮影した視覚媒体の電子データを被検画像として取得することができる。また、取得部10は、被検画像を画像ファイルや動画ファイルやデータファイル(pdfファイル、SVGファイル、HTMLファイルなど)その他の電子データとして取得することもできる。   The acquisition unit 10 acquires an image to be evaluated for visibility as a test image and transmits the acquired image to the processing unit 20. The acquisition unit 10 can acquire electronic data of a visual medium captured by a user as a test image from an internal camera or an external camera. The acquisition unit 10 can also acquire the test image as an image file, a moving image file, a data file (such as a pdf file, an SVG file, or an HTML file) or other electronic data.

処理部20は、被検画像を異なる複数のぼかし量で処理することにより、僅かにぼかした画像から、視認が不可能なほどにぼかした画像まで、2つ以上のぼかし画像を生成する。複数のぼかし画像は、試験部30に伝達される。   The processing unit 20 processes the test image with a plurality of different blur amounts to generate two or more blurred images from a slightly blurred image to an image that is so blurred that it cannot be visually recognized. The plurality of blurred images are transmitted to the test unit 30.

試験部30は、ユーザ試験を行うために、提示部31および入力部32を備える。試験部30は、視認性評価装置100のユーザに対して、ぼかし量の大きい順に、複数のぼかし画像を提示部31に提示する。ユーザは、提示されるぼかし画像について視認を試みる(画像認識の試験)。ユーザは、視認を試みた結果(試験結果)を、操作入力や音声入力やジェスチャ入力などにより試験部30の入力部32に入力する。   The test unit 30 includes a presentation unit 31 and an input unit 32 in order to perform a user test. The test unit 30 presents a plurality of blurred images to the presentation unit 31 in descending order of the blur amount to the user of the visibility evaluation device 100. The user attempts to visually recognize the presented blurred image (image recognition test). The user inputs the result of the visual recognition (test result) to the input unit 32 of the test unit 30 by operation input, voice input, gesture input, or the like.

判定部40は、試験結果に基づいて画像認識が妥当となる最大のぼかし量(以下「限界ぼかし量」という)を求め、その限界に対応する値を認識容易度とする。   The determination unit 40 obtains the maximum blur amount (hereinafter referred to as “limit blur amount”) for which image recognition is appropriate based on the test result, and sets a value corresponding to the limit as the recognition ease.

また、判定部40は、被検画像の認識容易度を境界値BVと比較することにより、被検画像が『視認良好』か否かを評価する。判定部40は、この境界値BVを設定するための設定部45を備える。境界値BVについては後述する。   Further, the determination unit 40 evaluates whether or not the test image is “good visibility” by comparing the recognition ease of the test image with the boundary value BV. The determination unit 40 includes a setting unit 45 for setting the boundary value BV. The boundary value BV will be described later.

上述した視認性評価装置100の構成は、専用の装置により実現される他に、例えば、パソコンやタブレットやスマートフォンや携帯端末やカメラなどのコンピュータにおいて視認性評価プログラム(アプリを含む)を実行することにより実現される。   The configuration of the visibility evaluation device 100 described above is realized by a dedicated device, and for example, a visibility evaluation program (including an application) is executed on a computer such as a personal computer, a tablet, a smartphone, a mobile terminal, or a camera. It is realized by.

また、視認性評価装置100の一部または全部を、ネットワークやクラウドやデータセンタのサーバ上に設けてもよい。この場合、サーバは、通信接続されたクライアント端末(パソコンやタブレットやスマートフォンや携帯端末やカメラなど)を認証し、クライアント端末を仲介としてユーザに「被検画像の視認性を評価するサービス」を提供することが可能になる。   Further, part or all of the visibility evaluation apparatus 100 may be provided on a server in a network, a cloud, or a data center. In this case, the server authenticates the client terminal (PC, tablet, smartphone, mobile terminal, camera, etc.) connected to the communication and provides the user with a service for evaluating the visibility of the test image via the client terminal. It becomes possible to do.

(実施例1における認識容易度の検出)
まず先に、視認性評価装置100による認識容易度の検出処理について説明する。
図2は、実施例1における認識容易度の検出処理を示す流れ図である。
以下、同図に示すステップ番号に沿って説明する。
(Detection of recognition degree in Example 1)
First, the recognition easyness detection process performed by the visibility evaluation apparatus 100 will be described.
FIG. 2 is a flowchart illustrating recognition easy level detection processing according to the first embodiment.
Hereinafter, description will be made along the step numbers shown in FIG.

ステップS101: 処理部20は、取得部10から伝達された被検画像に対して、最小ぼかし量b(1)〜最大ぼかし量b(n)でぼかし処理を施し、n個のぼかし画像G(1)〜G(n)を生成する。なお、添え字nは2以上の自然数である。 Step S101: The processing unit 20 performs a blurring process on the test image transmitted from the acquisition unit 10 with the minimum blur amount b (1) to the maximum blur amount b (n), so that n blur images G ( 1) to G (n) are generated. The subscript n is a natural number of 2 or more.

図3は、複数のぼかし画像G(1)〜G(n)を例示する図である。
同図において、ぼかし画像G(1)は、被検画像の輪郭やディテールを僅かにぼかした程度の画像であり、ぼかし画像G(n)は、被検画像としての視認が不可能な程度にぼかした画像である。途中のぼかし画像は、与えるぼかし量を変化させてぼかし処理を実施した画像、または、ぼかし処理を重ねる回数によりぼかし量を変化させた画像である。ちなみに、主要なぼかし画像についてはぼかし処理により作成し、主要なぼかし画像の間に挿入されるぼかし画像については、主要なぼかし画像のオーバーラップ処理により補間的に生成してもよい。
FIG. 3 is a diagram illustrating a plurality of blurred images G (1) to G (n).
In the figure, a blurred image G (1) is an image in which the contour and details of the image to be examined are slightly blurred, and the blurred image G (n) is not visible to the test image. It is a blurred image. The halfway blurred image is an image in which the blurring amount is changed and the blurring process is performed, or the blurring amount is changed depending on the number of times the blurring process is repeated. Incidentally, the main blurred image may be generated by the blur process, and the blur image inserted between the main blur images may be generated by interpolation by the main blur image overlap process.

ここでのぼかし処理は、人間の視認性を低下させるぼかし処理であればよい。例えば、ガウスぼかし処理のように、人間がぼんやり見る非合焦状態を再現するものでもよい。また、像流れ処理や像ゆらぎ処理のように、人間の視線が泳ぐ状態やカメラの手振れを再現するものでもよい。さらに、モザイク処理のように、空間解像度を低下させる処理でもよい。また、空間ローパスフィルタのように、画像の高域空間周波数成分を削減する処理でもよい。さらに、曇りガラスや、フォギー効果や、軟焦点効果や、レンズ収差や、色ずらし処理や、画像のずらし多重や、ノイズ重畳や、像歪みなどのぼかしを、模擬する画像処理でもよい。また、明度の低下処理や暗部の階調を潰す処理や黒潰れ処理のように暗所におけるぼかし(視認性の低下)を模擬する画像処理でもよい。さらに、コントラストの低下処理や階調の削減処理にように、明暗がぼんやりとする視認性の低下を模擬する画像処理でもよい。さらに、減色処理や白黒や特定色にモノクロ化する処理のように、色がぼやける視認性の低下を模擬する画像処理でもよい。また、高輝度側に飽和させる処理(白飛び処理など)のように、急に明るくなって視認性がぼやける状態を模擬する画像処理でもよい。   The blurring process here may be a blurring process that reduces human visibility. For example, it is possible to reproduce a non-focused state in which human beings are blurred, such as Gaussian blur processing. Further, it is also possible to reproduce a state in which a human line of sight swims or camera shake, such as image flow processing or image fluctuation processing. Furthermore, a process for reducing the spatial resolution, such as a mosaic process, may be used. Moreover, the process which reduces the high frequency spatial frequency component of an image like a spatial low-pass filter may be sufficient. Furthermore, image processing that simulates fogged glass, foggy effect, soft focus effect, lens aberration, color shift processing, image shift multiplexing, noise superimposition, and image distortion may be used. Further, image processing that simulates blurring in a dark place (decrease in visibility), such as lightness reduction processing, processing for crushing gradation in a dark portion, or blackening processing, may be used. Furthermore, image processing that simulates a decrease in visibility with a faint contrast may be used, such as a contrast reduction process or a gradation reduction process. Furthermore, image processing that simulates a reduction in visibility in which colors are blurred, such as color reduction processing or processing for black and white or monochrome conversion to a specific color, may be performed. Further, it may be an image process that simulates a state where the brightness becomes suddenly bright and the visibility is blurred, such as a process of saturation on the high luminance side (such as a whiteout process).

ステップS102: 試験部30は、ユーザ試験に先だって、限界ぼかし量Lに初期値0を代入し、ぼかし画像の順番iに初期値nを代入する。 Step S102: Prior to the user test, the test unit 30 substitutes an initial value 0 for the limit blur amount L and substitutes an initial value n for the order i of the blurred images.

ステップS103: 試験部30は、ぼかし画像G(i)を提示部31に所定時間ずつ提示する。
後述(ステップS108)するように、順番iはnから1まで降順に切り替わる。その結果、提示部31には、図3に示す矢印の方向順に、視認が不可能なほどのぼかし画像G(n)から始まって、段階的に鮮明になるぼかし画像G(i)が提示される。
Step S103: The test unit 30 presents the blurred image G (i) to the presentation unit 31 for each predetermined time.
As will be described later (step S108), the order i switches from n to 1 in descending order. As a result, the presentation unit 31 is presented with a blurred image G (i) that starts from a blurred image G (n) that cannot be visually recognized in order of the arrows shown in FIG. The

図4は、このぼかし画像G(i)を提示する端末33を例示する図である。
同図に示す端末33は、タッチパネルの画面を備え、提示部31の表示エリアと共に、入力部32の操作エリアも一緒に設けられる。また、端末33には、入力部32の音声入力用のマイク(不図示)や、ジェスチャ入力用の光受光部またはカメラ(不図示)も設けられる。
FIG. 4 is a diagram illustrating a terminal 33 that presents the blurred image G (i).
A terminal 33 shown in the figure includes a touch panel screen, and an operation area of the input unit 32 is provided together with a display area of the presentation unit 31. The terminal 33 is also provided with a microphone (not shown) for voice input of the input unit 32 and a light receiving unit or camera (not shown) for gesture input.

ステップS104: ユーザは、ヒントクイズの形式(映像がヒントとして順々に示され、答えが分かった時点でボタンを押す形式)で、提示部31に提示されるぼかし画像G(i)が視認可になった段階で、端末33の入力部32を操作(タップ操作や音声入力やジェスチャ入力など)する。入力部32に入力された操作は「視認可」の意思を示す操作イベントとして、試験部30に伝達される。 Step S104: The user views and approves the blurred image G (i) presented on the presentation unit 31 in the form of a hint quiz (the picture is sequentially shown as a hint and the button is pressed when the answer is known). At this stage, the input unit 32 of the terminal 33 is operated (tap operation, voice input, gesture input, etc.). The operation input to the input unit 32 is transmitted to the test unit 30 as an operation event indicating the intention of “visual approval”.

ステップS105: 試験部30は、ぼかし画像G(i)の提示期間中に「視認可」の操作イベントが発生するか否かを判定する。「視認可」の操作イベントが発生すると、試験部30はステップS106に動作を移行する。一方、ぼかし画像G(i)の提示期間が終了した時点で「視認可」の操作イベントが発生していない場合、試験部30はステップS107に動作を移行する。 Step S105: The test unit 30 determines whether or not an operation event “viewing approval” occurs during the presentation period of the blurred image G (i). When the “view authorization” operation event occurs, the test unit 30 shifts the operation to step S106. On the other hand, when the “viewing approval” operation event has not occurred when the presentation period of the blurred image G (i) ends, the test unit 30 shifts the operation to step S107.

ステップS106: 試験部30は、「視認可」の操作イベントが発生した時点で、提示中のぼかし画像G(i)のぼかし量b(i)を、視認可の限界ぼかし量Lに代入する。
このユーザ試験では、「視認可」の操作イベントは初回のみ有効とし、限界ぼかし量Lへの代入処理も初回のみとする。その場合、操作イベント以降のぼかし画像の提示は、クイズの解答表示の意味合いとなるため、ぼかし画像の表示間隔を短縮することによりユーザ試験の所要時間を短縮する。
Step S106: When the “visual approval” operation event occurs, the test unit 30 substitutes the blur amount b (i) of the blurred image G (i) being presented into the limit blur amount L of the visual approval.
In this user test, the “visual approval” operation event is valid only for the first time, and the substitution process for the limit blur amount L is also performed only for the first time. In that case, since the presentation of the blurred image after the operation event has the meaning of displaying the answer of the quiz, the time required for the user test is shortened by reducing the display interval of the blurred image.

なお、ユーザが、後続の鮮明なぼかし画像G(i)を観て、前回の「視認可」が勘違いであることに気付き、「視認可」の操作を繰り返す場合もある。このような操作が多いユーザについては、限界ぼかし量Lへの代入処理を上書き更新の処理とし、最終的な操作イベントを有効な「視認可」としてもよい。   Note that the user may observe the subsequent clear blurred image G (i), notice that the previous “visual approval” is misunderstanding, and repeat the “visual approval” operation. For a user with many such operations, the substitution process for the limit blur amount L may be an overwrite update process, and the final operation event may be an effective “viewing authorization”.

ステップS107: 試験部30は、n個のぼかし画像G(n)〜G(1)の提示が完了したか否かを判定する。順番iが「1」であれば、試験部30は提示完了と判定してステップS109に動作を移行する。一方、順番iが「1」より大きい場合、提示が完了していないと判定し、ステップS108に動作を移行する。 Step S107: The test unit 30 determines whether or not the presentation of the n blurred images G (n) to G (1) has been completed. If the order i is “1”, the test unit 30 determines that the presentation is complete, and the operation proceeds to step S109. On the other hand, if the order i is greater than “1”, it is determined that the presentation has not been completed, and the operation proceeds to step S108.

ステップS108: 試験部30は、段階的に鮮明になるぼかし画像を提示するため、順番iを1つ減らして、ステップS103に動作を移行する。 Step S108: In order to present the blurred image that becomes clearer in stages, the test unit 30 reduces the order i by one and shifts the operation to step S103.

ステップS109: 判定部40は、視認可の限界ぼかし量Lに応じた値を、認識容易度とする。
例えば、判定部40は、次式を用いて、認識容易度を求める。
Step S109: The determination unit 40 sets a value according to the limit blur amount L for viewing approval as the recognition ease.
For example, the determination unit 40 obtains the recognition ease using the following equation.

認識容易度R[%]=(限界ぼかし半径)/(絵柄半径) × 100
・・・[1]
Ease of recognition R [%] = (limit blur radius) / (pattern radius) × 100
... [1]

式[1]に示す認識容易度Rは、限界ぼかし量Lに相当する限界ぼかし半径[pixel]を、絵柄がおよそ収まる円の半径[pixel]でサイズ調整(正規化)した百分率の値である。
上述した一連の処理により、被検画像の認識容易度が得られる。
The recognizability R shown in the equation [1] is a percentage value obtained by adjusting (normalizing) the size of the limit blur radius [pixel] corresponding to the limit blur amount L with the radius [pixel] of a circle in which the pattern is approximately contained. .
By the series of processes described above, the degree of easy recognition of the test image is obtained.

(境界値BVの設定処理)
続いて、視認性の臨界的な境界を示す境界値BVを設定する処理について説明する。
図5は、設定部45による境界値BVの設定処理を示す流れ図である。
以下、同図に示すステップ番号に沿って説明する。
(Boundary value BV setting process)
Next, processing for setting a boundary value BV indicating a critical boundary for visibility will be described.
FIG. 5 is a flowchart showing the setting process of the boundary value BV by the setting unit 45.
Hereinafter, description will be made along the step numbers shown in FIG.

ステップS201: 設定部45は、境界値BVの設定用に複数の訓練画像を収集する。複数の訓練画像には、視認性評価装置100において視認性を過去に評価した被検画像を使用してもよい。また、視認性評価装置100の開発チームが新たに収集した画像でもよいし、クラウド上からインターネットなどを介して(例えば自動的に)収集した画像でもよい。なお、訓練画像について、後述する回答時間および認識容易度のデータが収集可能であれば、訓練画像の画像データの収集は不要である。 Step S201: The setting unit 45 collects a plurality of training images for setting the boundary value BV. For the plurality of training images, test images whose visibility has been evaluated in the past by the visibility evaluation apparatus 100 may be used. Moreover, the image newly collected by the development team of the visibility evaluation apparatus 100 may be used, or the image may be collected from the cloud via the Internet (for example, automatically). In addition, about the training image, if the data of the reply time and recognition ease mentioned later are collectable, the collection of the image data of a training image is unnecessary.

ステップS202: 設定部45は、訓練画像ごとに、ネーミングタスクの実験結果である回答時間(視認にかかる時間)をデータ収集する。 Step S202: The setting unit 45 collects answer time (time required for visual recognition), which is an experiment result of the naming task, for each training image.

ステップS203: 設定部45は、訓練画像ごとに、認識容易度をデータ収集する。 Step S203: The setting unit 45 collects data on the recognition ease for each training image.

ステップS204: 設定部45は、訓練画像それぞれに(回答時間,認識容易度)の座標を与えて、訓練画像の群について空間分布Dを得る。 Step S204: The setting unit 45 gives coordinates of (answer time, recognition ease) to each training image, and obtains a spatial distribution D for the group of training images.

図6は、空間分布Dの実験結果を示す図である。
同図は、回答時間(中央値)を横軸とし、認識容易度(平均値)を縦軸として、訓練画像をそれぞれプロットした実験結果である。
FIG. 6 is a diagram illustrating experimental results of the spatial distribution D.
The figure shows experimental results in which training images are plotted with the response time (median value) on the horizontal axis and the ease of recognition (average value) on the vertical axis.

図6に示す実験は、32名の20代女性を被験者とし、訓練画像ごとに回答時間と認識容易度を実験している。   In the experiment shown in FIG. 6, 32 females in their 20s are subjects, and the response time and the degree of recognition are tested for each training image.

なお、1人の被験者に対して、同じ訓練画像について認識容易度の実験と回答時間の実験とを行うと、先の認識容易度の実験により正解を知った状態で後の回答時間の実験を行うため、後知恵によって実験値が偏向する懸念がある。   In addition, when an experiment on the ease of recognition and an experiment on the answer time are performed for one subject on the same training image, an experiment on the later answer time is performed in a state in which the correct answer is known by the previous experiment on the ease of recognition. Therefore, there is a concern that the experimental value may be biased by hindsight.

そこで、実験に先立って、被験者をグループPa,Pbにグループ分けする。また、訓練画像についても、訓練画像の群Gaと訓練画像の群Gbとにグループ分けする。そして、グループPaの被験者に対しては、訓練画像の群Gaについて回答時間の実験を行い、訓練画像の群Gbについて認識容易度の実験を行った。グループPbの被験者に対しては、訓練画像の群Gbについて回答時間の実験を行い、訓練画像の群Gaについて認識容易度の実験を行った。このような「たすき掛け方式」の実験とその順序により、上述した後知恵による実験値の偏向を回避した。   Therefore, prior to the experiment, the subjects are grouped into groups Pa and Pb. The training images are also grouped into a training image group Ga and a training image group Gb. And with respect to the test subject of the group Pa, the experiment of the reply time was conducted about the group Ga of the training image, and the experiment of the recognition degree was conducted about the group Gb of the training image. For the subjects of group Pb, an experiment on the answer time was performed for the group Gb of training images, and an experiment on the ease of recognition was performed for the group Ga of training images. By the experiment and the order of the “tacking method”, the deviation of the experimental value due to the hindsight described above was avoided.

実験の結果、個々の訓練画像において、複数の回答時間と、複数の認識容易度が得られる。
この内、回答時間の実験値については、少数の被験者において回答時間が極端に遅れるなどの傾向が散見された。この状態で回答時間の平均を代表値とすると、少数の被験者の極端な遅れが平均に影響して代表値を偏らせてしまう。そこで、回答時間の実験結果としては、回答時間の上限側および下限側の影響を除くため、中央値(メディアン値)を代表値として採用した。
As a result of the experiment, a plurality of response times and a plurality of recognition easinesses are obtained in each training image.
Among these, there was a tendency for the experimental value of response time to be extremely delayed in a small number of subjects. In this state, if the average of the response times is a representative value, the extreme delay of a small number of subjects affects the average and biases the representative value. Therefore, the median value (median value) was adopted as a representative value as an experimental result of the response time in order to eliminate the influence of the upper limit side and the lower limit side of the response time.

一方、認識容易度については、おおむね安定した結果が得られ、極端な個人差は生じなかった。そこで、認識容易度の実験結果としては、認識容易度の平均値を代表値として採用した。   On the other hand, as for the degree of recognition, generally stable results were obtained, and no extreme individual differences occurred. Therefore, the average value of the ease of recognition was adopted as the representative value as the experimental result of the degree of recognition.

ステップS205: 設定部45のデータ収集により作成される空間分布Dは、図6に示すようにL字状に分布する特性を示す。
設定部45は、この空間分布DのL字状の特性に基づいてクラス分けの処理を行い、空間分布Dを次の範囲A,Bに区分する。
●回答時間が短い側に集中する認識容易度の範囲A
●回答時間が長い側まで分散する認識容易度の範囲B
図7は、空間分布Dを範囲A,Bに区分した様子を示す図である。
Step S205: The spatial distribution D created by the data collection of the setting unit 45 shows the characteristics distributed in an L shape as shown in FIG.
The setting unit 45 performs classification processing based on the L-shaped characteristics of the spatial distribution D, and divides the spatial distribution D into the following ranges A and B.
● Recognition range A where the response time is concentrated on the short side
● Recognition range B in which the response time is distributed to the long side
FIG. 7 is a diagram illustrating a state in which the spatial distribution D is divided into ranges A and B.

ステップS206: 認識容易度の範囲A,Bは、回答時間の広がり方に有意な違いがあるため、範囲A,Bの境界は、臨界的意義を有する境界となる。
そこで、設定部45は、認識容易度の範囲A,Bの境界を求め、臨界的意義を有する境界値BVとする。
この境界値BVよりも、被検画像の認識容易度が上であれば、被検画像は範囲Aに属するため、回答時間は短い側に集中すると推定され、視認良好であると評価できる。
図7に示す範囲A,Bから求めた、臨界的意義を有する境界値BVは次の値となる。
臨界的意義を有する境界値BV = 6.7[%]
・・・[2]
Step S206: Since the recognition ease ranges A and B have a significant difference in how the response time spreads, the boundary between the ranges A and B is a boundary having critical significance.
Therefore, the setting unit 45 obtains the boundary between the recognition ease ranges A and B and sets the boundary value BV having critical significance.
If the test image is more easily recognized than the boundary value BV, the test image belongs to the range A, so that the response time is estimated to be concentrated on the short side, and it can be evaluated that the visual recognition is good.
The boundary value BV having critical significance obtained from the ranges A and B shown in FIG. 7 is the following value.
Boundary value BV having critical significance = 6.7 [%]
... [2]

ステップS207: 設定部45は、判定部40に境界値BVを設定(視認性評価装置100の運用中であれば境界値BVを随時更新)する。
以上の動作により、視認性評価装置100では、視認良好か否かを評価するための境界値BVが使用可能になる。
Step S207: The setting unit 45 sets the boundary value BV in the determination unit 40 (updates the boundary value BV as needed if the visibility evaluation apparatus 100 is in operation).
With the above operation, the visibility evaluation apparatus 100 can use the boundary value BV for evaluating whether the visibility is good.

(実施例1の全体動作)
続いて、実施例1の全体動作について説明する。
(Overall operation of the first embodiment)
Subsequently, the overall operation of the first embodiment will be described.

図8は、視認性評価装置100の全体動作を示す流れ図である。
以下、同図に示すステップ番号に沿って説明する。
FIG. 8 is a flowchart showing the overall operation of the visibility evaluation apparatus 100.
Hereinafter, description will be made along the step numbers shown in FIG.

ステップS301: ユーザは、視認性の評価対象とする画像を、被検画像として視認性評価装置100に入力する。取得部10は、入力された被検画像を処理部20に伝達する。 Step S301: The user inputs an image to be evaluated for visibility into the visibility evaluation apparatus 100 as a test image. The acquisition unit 10 transmits the input test image to the processing unit 20.

ステップS302: 視認性評価装置100は、被検画像について認識容易度を求める。この動作の詳細については、図2の流れ図に基づいて既に説明したため、ここでの重複説明は省略する。 Step S302: The visibility evaluation device 100 obtains a recognition ease for the test image. The details of this operation have already been described based on the flowchart of FIG.

ステップS303: 判定部40は、視認性の評価値として、被検画像を入力したユーザに対して、認識容易度を返答する。 Step S303: The determination unit 40 returns the recognition ease to the user who has input the test image as the visibility evaluation value.

ステップS304: 判定部40は、被検画像の認識容易度が境界値BVより上とみなせる場合、ステップS305に動作を移行する。それ以外の場合、判定部40は、被検画像の視認性の評価を完了する。 Step S304: When the determination unit 40 can consider that the recognition degree of the test image is higher than the boundary value BV, the operation proceeds to step S305. In other cases, the determination unit 40 completes the evaluation of the visibility of the test image.

ステップS305: ここでは、被検画像の認識容易度が境界値BVより上とみなせるため、被検画像は「回答時間が短い側に集中する認識容易度の範囲A(図7参照)」に属すると推定される。そこで、判定部40は、被検画像を入力したユーザに対して、「被検画像の視認性は良好である」旨の評価情報を出力する。
以上の動作により、被検画像についての視認性の評価が完了する。
Step S305: Here, since the ease of recognition of the test image can be considered to be higher than the boundary value BV, the test image belongs to the “recognition range A where the answer time is short (see FIG. 7)”. It is estimated to be. Therefore, the determination unit 40 outputs evaluation information indicating that “the visibility of the test image is good” to the user who has input the test image.
With the above operation, the visibility evaluation for the test image is completed.

(実施例1の効果)
(1)脳機能マッピングにおいては、被験者は頭骨を固定され、手術台の上に横たわる。その状態では、眠くなったり、注視を維持できなかったり、被験者の視界はぼやけやすい。そこで、被検画像の認識がぎりぎり可能となる視界のぼやけを示す指標として、本願発明者は「認識容易度」を導入する。認識容易度の高い画像は、視界がぼやけても認識が容易な画像であるため、視認性が高い画像と評価できる。実施例1の視認性評価装置100は、被検画像についてこの認識容易度を求める。したがって、被検画像の視認性を評価することが可能になる。
(Effect of Example 1)
(1) In brain function mapping, the subject is fixed on the skull and lies on the operating table. In this state, the subject's field of vision is easily blurred because he / she becomes sleepy, cannot keep his gaze. Therefore, the inventor of the present application introduces “recognition ease” as an index indicating the blur of the field of view that enables the recognition of the test image. An image having a high degree of recognition is an image that can be easily recognized even if the field of view is blurred. The visibility evaluation apparatus 100 of Example 1 calculates | requires this recognition ease about a test image. Therefore, it becomes possible to evaluate the visibility of the test image.

(2)実施例1では、視界のぼやけ具合を、被検画像に施すぼかし量を複数段階に異ならせることによって等価的に模擬している。通常、視界のぼやけ具合は視覚に関する定性的なパラメータであるため、そのままでは数値化は困難である。しかし、実施例1は、視界のぼやけ具合を画像のぼかし量によって模擬する。このぼかし量は画像処理上の数値である。したがって、認識容易度は、ぼかし量という数値に基づいて、視認性を数値によって評価することが可能になる。 (2) In the first embodiment, the degree of blur in the field of view is equivalently simulated by varying the amount of blur applied to the test image in a plurality of stages. Usually, the degree of visual blur is a qualitative parameter relating to vision, and it is difficult to quantify it as it is. However, in the first embodiment, the degree of blurring of the field of view is simulated by the blurring amount of the image. This blur amount is a numerical value in image processing. Therefore, the ease of recognition makes it possible to evaluate the visibility based on the numerical value of the blur amount.

(3)認識容易度の高い被検画像は、注視を維持できずに視界が定まらない状態であっても、目に入りやすく一目で把握しやすい画像である。その観点によれば、認識容易度は、視覚媒体としての画像全般において、「見やすさ」や「分かりやすさ」や「目の惹きやすさ」を評価する指標になる。したがって、視覚媒体の画像全般(広告や標識やピクトグラムや看板や動画や写真や書籍やフォントや絵文字や記号や紙面や図面や操作画面など)について認識容易度を求めることにより、「見やすさ」や「分かりやすさ」や「目の惹きやすさ」を評価することが可能になる。 (3) A test image with a high degree of recognition is an image that is easy to enter the eye and easily grasped at a glance even if the gaze cannot be maintained and the field of view is not fixed. From this point of view, the degree of recognition is an index for evaluating “easy to see”, “easy to understand”, and “easy to attract eyes” in general images as visual media. Therefore, by making it easy to recognize visual images in general (advertising, signs, pictograms, signs, videos, photos, books, fonts, pictograms, symbols, paper, drawings, operation screens, etc.) It becomes possible to evaluate “easy to understand” and “easy to attract eyes”.

(4)実施例1では、認識容易度の判定に境界値BVを使用する。この境界値BVは、図7に示すように「回答時間が短い側に集中する認識容易度の範囲A」と「回答時間が長い側まで分散する認識容易度の範囲B」とに有意に分ける値(臨界的意義を有する値)である。したがって、被検画像の認識容易度が境界値BVより上であれば、その被検画像の回答時間は短くなる可能性が大であり、視認性は良好であると判定することが可能になる。 (4) In the first embodiment, the boundary value BV is used to determine the recognition ease. As shown in FIG. 7, this boundary value BV is significantly divided into “recognition range A that concentrates on the side where the answer time is short” and “recognition range B that spreads to the side where the answer time is long”. Value (value having critical significance). Therefore, if the degree of easy recognition of the test image is higher than the boundary value BV, the response time of the test image is likely to be short, and it is possible to determine that the visibility is good. .

(5)実施例1では、ユーザインターフェースとして端末33を備える。この端末33の提示部31には、ぼかし量の大きい順に複数のぼかし画像G(n)〜G(1)が順番に入れ替わって提示される。ユーザは、段階的に鮮明になるぼかし画像を観察することで、どの段階で視認可能になったかをはっきり知覚することが可能になる。そのため、認識容易度を明確に求めることが可能になる。 (5) In Example 1, the terminal 33 is provided as a user interface. A plurality of blurred images G (n) to G (1) are sequentially switched and presented on the presentation unit 31 of the terminal 33 in descending order of the blur amount. By observing the blurred image that becomes clearer in stages, the user can clearly perceive the stage at which the visual recognition has become possible. For this reason, it is possible to clearly obtain the degree of recognition.

(6)実施例1では、さらに端末33に入力部32を備える。この入力部32はユーザから視認試験の結果を取得する。そのため、ユーザから意思表示を聞き取るための実験立会人などは不要となり、ユーザ1人でも認識容易度を求めることが可能になる。 (6) In the first embodiment, the terminal 33 further includes the input unit 32. The input unit 32 acquires the result of the visual test from the user. Therefore, there is no need for an experimental witness to listen to the intention display from the user, and it is possible for even one user to obtain the degree of recognition.

(7)視認性の評価には、回答時間の短さも判断材料になり得る。しかし、回答時間のユーザ試験は、被検画像を見てから名称を答えるまでの回答時間をコンマ1秒単位で測定するものであって、「早押しクイズ」の形式に相当する。そのため、被験者の中枢神経や運動神経や集中力、さらには試験環境の要因が大きく影響し、同じ被験者が同じ被検画像について試験を行っても、回答時間は毎回変動し再現性が低い。また、被験者が被検画像とその名称を一度記憶してしまえば、条件反射的に回答時間が短くなる。そのため、同じ被験者が同じ被検画像について回答時間の試験を行う際には、日を改めるなど時間を置く必要があった。
これらの理由から「回答時間」は視認性を評価する指標としては不都合な点が多かった。
(7) In the evaluation of visibility, a short response time can also be a criterion. However, the answer time user test measures the answer time from seeing the image to be examined until answering the name in units of a comma, and corresponds to the “quick press quiz” format. Therefore, the central nervous system, motor nerve, concentration, and test environment factors greatly influence the test subject, and even if the same test subject tests the same test image, the response time varies every time and the reproducibility is low. Also, once the test subject memorizes the test image and its name, the response time is shortened in a conditional manner. Therefore, when the same subject conducts a test of the answer time for the same test image, it is necessary to take time such as changing the date.
For these reasons, “response time” is often inconvenient as an index for evaluating visibility.

それに対して、認識容易度のユーザ試験は、段階的に鮮明になるぼかし画像をヒントとして、ユーザが視認可になった段階で入力部32を操作するものであって、「ヒントクイズ」の形式に相当する。そのため、1つのぼかし画像の提示期間内であればユーザは落ち着いて入力部32を操作することが可能になる。そのため、被験者の中枢神経や運動神経や集中力、さらには試験環境などの要因はさほど影響せず、同じ被験者が同じ被検画像について試験を行っても、認識容易度は高い再現性が得られる。また、被験者が被検画像を一度記憶してしまっても認識容易度は条件反射的に答えるものではなく、ぼかし画像が何に見えるかを考えながら答えるものである。そのため、日を改めて時間を置かずにユーザ試験を繰り返しても、認識容易度は比較的変化せず再現性が高い。
これらの理由から「認識容易度」は視認性を客観的に評価する指標として優れている。
On the other hand, the user test of the ease of recognition uses the blurred image that becomes clearer in stages as a hint, and operates the input unit 32 at the stage when the user is approved for viewing. It corresponds to. Therefore, the user can calmly operate the input unit 32 within the presentation period of one blurred image. Therefore, factors such as the subject's central nerves, motor nerves, concentration, and test environment do not affect so much, and even if the same subject tests on the same test image, recognition is highly reproducible. . Moreover, even if a test subject memorizes a test image once, the degree of recognition is not answered in a condition-reflective manner, but is answered while considering what the blurred image looks like. Therefore, even if the user test is repeated without changing the time, the recognition degree does not change relatively and the reproducibility is high.
For these reasons, “recognition ease” is excellent as an index for objectively evaluating visibility.

実施例2は、ユーザ(被験者)の代わりに機械学習器を利用して視認性を評価する実施形態である。   Example 2 is an embodiment in which visibility is evaluated using a machine learning device instead of a user (subject).

(実施例2の構成説明)
図9は、実施例2の視認性評価装置200の概略構成を示すブロック図である。
同図において、視認性評価装置200は、取得部10、処理部20、試験部50、および判定部60の機能を備えて構成される。試験部50は、機械学習器300を備える。
(Description of Configuration of Example 2)
FIG. 9 is a block diagram illustrating a schematic configuration of the visibility evaluation apparatus 200 according to the second embodiment.
In the figure, the visibility evaluation apparatus 200 is configured to include functions of an acquisition unit 10, a processing unit 20, a test unit 50, and a determination unit 60. The test unit 50 includes a machine learning device 300.

なお、試験部50および判定部60以外については、実施例1(図1参照)と同様のため、ここでの重複説明を省略する。   In addition, since it is the same as that of Example 1 (refer FIG. 1) except the test part 50 and the determination part 60, duplication description here is abbreviate | omitted.

(機械学習器300の基本構成)
図10は、機械学習器300の基本構成を説明する図である。
同図において、ぼかし画像などの映像情報は、画像解析の解析内容に適した前処理(クロップ、リサイズ、畳み込み前のパディングなど)が施された後、入力層310に入力される。
(Basic configuration of machine learning device 300)
FIG. 10 is a diagram for explaining the basic configuration of the machine learning device 300.
In the figure, video information such as a blurred image is input to the input layer 310 after being subjected to preprocessing (crop, resizing, padding before convolution, etc.) suitable for the analysis content of the image analysis.

入力層310の映像情報は、畳み込み層・活性化関数321およびプーリング層322を介して処理され、画像空間の局所的な特徴に応じて活性化するニューロンからなる特徴マップに変換される。この畳み込み層・活性化関数321およびプーリング層322は、画像解析に適した層数だけ多層化される。   The video information of the input layer 310 is processed through the convolution layer / activation function 321 and the pooling layer 322, and converted into a feature map made up of neurons activated in accordance with local features of the image space. The convolution layer / activation function 321 and the pooling layer 322 are multi-layered by the number of layers suitable for image analysis.

多層化された畳み込み層・活性化関数321およびプーリング層322を経由した特徴マップのニューロンの値はシリアル化された後、ニューラルネットワーク330に入力される。ニューラルネットワーク330は画像解析に適する層数でニューロンを結合(例えば全結合)して構成される。ニューラルネットワーク330の最終端の出力層340の複数のニューロンからは、画像解析の結果(尤度など)を示す活性化パターンが出力される。   The neuron values of the feature map via the multi-layered convolution layer / activation function 321 and pooling layer 322 are serialized and then input to the neural network 330. The neural network 330 is configured by connecting (for example, fully connecting) neurons with the number of layers suitable for image analysis. An activation pattern indicating the result of image analysis (likelihood) is output from the plurality of neurons in the output layer 340 at the final end of the neural network 330.

ここでは、機械学習器300の基本構成を1つの系統で説明したが、画像解析の内容によっては基本構成を並列ないし途中分岐にして複数系統により構成してもよい。また、途中に過去のニューロンの状態を保持する層を設けることにより、時間軸方向の画像(動画)の画像認識を可能にしてもよい。   Here, the basic configuration of the machine learning device 300 has been described with one system. However, depending on the content of the image analysis, the basic configuration may be configured with a plurality of systems with parallel or halfway branches. Further, by providing a layer that holds the state of the past neuron in the middle, it may be possible to recognize an image (moving image) in the time axis direction.

(機械学習器300の機械学習)
続いて、機械学習器300の機械学習について説明する。
図11は、機械学習器300の訓練データ400の一部を示す図である。
(Machine learning of machine learning device 300)
Next, machine learning of the machine learning device 300 will be described.
FIG. 11 is a diagram illustrating a part of the training data 400 of the machine learning device 300.

図11に示す訓練画像410は、被検画像に含まれる可能性が高い円形、矩形、三角などの基本パーツの画像群である。
出力層340を構成する複数のニューロンには、これら基本パーツごとに独立した活性化パターンが教師値420として予め割り当てられる。
A training image 410 illustrated in FIG. 11 is an image group of basic parts such as a circle, a rectangle, and a triangle that are highly likely to be included in the test image.
An activation pattern independent for each basic part is assigned in advance as a teacher value 420 to a plurality of neurons constituting the output layer 340.

訓練データ400は、これらの訓練画像410と教師値420とを含むデータセットを集めた群により構成される。   The training data 400 is configured by a group of data sets including these training images 410 and teacher values 420.

機械学習器300の畳み込み層・活性化関数321やニューラルネットワーク330内のニューロンそれぞれは、重み配列Wやバイアスbiasを有する。これらの重み配列Wやバイアスbiasは、訓練データ400を用いた機械学習(誤差逆伝搬法など)を繰り返すことにより逐次更新され、出力層340は学習した教師値に近い活性化パターンを出力するようになる。   Each of the convolutional layer / activation function 321 of the machine learning device 300 and the neurons in the neural network 330 has a weight array W and a bias bias. These weight array W and bias bias are sequentially updated by repeating machine learning (such as the error back propagation method) using the training data 400, and the output layer 340 outputs an activation pattern close to the learned teacher value. become.

(実施例2における認識容易度の検出)
続いて、ユーザ(被験者)の代わりに機械学習器300を利用して認識容易度を自動的に検出する動作について説明する。
(Detection of recognition degree in the second embodiment)
Next, an operation of automatically detecting the degree of easy recognition using the machine learning device 300 instead of the user (subject) will be described.

図12は、実施例2における認識容易度の検出処理を示す流れ図である。
以下、同図に示すステップ番号に沿って説明する。なお、特に断らない動作については実施例1と同じ動作である。
FIG. 12 is a flowchart illustrating the recognition ease detection process according to the second embodiment.
Hereinafter, description will be made along the step numbers shown in FIG. The operations that are not specifically described are the same as those in the first embodiment.

ステップS501: 処理部20は、取得部10から伝達された被検画像に対して、最小ぼかし量b(1)〜最大ぼかし量b(n)でぼかし処理を施し、n個のぼかし画像G(1)〜G(n)を生成する。なお、添え字nは2以上の自然数である。 Step S501: The processing unit 20 performs a blurring process on the test image transmitted from the acquisition unit 10 with the minimum blur amount b (1) to the maximum blur amount b (n), so that n blur images G ( 1) to G (n) are generated. The subscript n is a natural number of 2 or more.

ステップS502: 試験部50は、機械学習器300の入力層310に被検画像を入力する。機械学習器300の出力層340には、被検画像に含まれる基本パーツ(機械学習済み)の組み合わせに応じた活性化パターンが画像認識の試験結果として現れる。試験部50は、この活性化パターンを被検画像の画像認識の正解値として一時記憶する。 Step S502: The test unit 50 inputs the test image to the input layer 310 of the machine learning device 300. In the output layer 340 of the machine learning device 300, an activation pattern corresponding to a combination of basic parts (machine learning completed) included in the test image appears as a test result of image recognition. The test unit 50 temporarily stores this activation pattern as a correct value for image recognition of the test image.

ステップS503: 試験部50は、ぼかし画像の順番iに初期値「1」を代入する。 Step S503: The test unit 50 substitutes an initial value “1” for the order i of the blurred images.

ステップS504: 試験部50は、機械学習器300の入力層310にぼかし画像G(i)を入力する。機械学習器300の出力層340には、ぼかし画像G(i)に残存する基本パーツ(機械学習済み)の組み合わせに応じて活性化パターンが現れる。試験部50は、ぼかし画像G(i)の活性化パターンを画像認識の試験結果として取得する。 Step S504: The test unit 50 inputs the blurred image G (i) to the input layer 310 of the machine learning device 300. An activation pattern appears in the output layer 340 of the machine learning device 300 according to the combination of basic parts (machine learning completed) remaining in the blurred image G (i). The test unit 50 acquires the activation pattern of the blurred image G (i) as the image recognition test result.

ステップS505: 判定部60は、試験結果と正解値との距離(活性化パターンのパターン列の差分二乗和、差分二乗平均、その平方根、差分絶対値和、差分絶対値平均など)を求める。なお、この距離を正解値の大きさなどを基準に正規化してもよい。 Step S505: The determination unit 60 obtains the distance between the test result and the correct value (difference sum of squares of the pattern sequence of the activation pattern, average of the roots of difference, the square root thereof, the sum of absolute differences, the average of absolute differences, etc.). Note that this distance may be normalized based on the magnitude of the correct answer value.

ステップS506: 判定部60は、試験結果と正解値との距離が妥当な範囲を超えるか否かを判定する。
ここでの妥当な範囲については、ユーザ試験においてぎりぎり視認可となったぼかし画像を収集し、収集したぼかし画像について求めた「距離」の値を基準に設定すればよい。
また、ぼかし量に対する距離の変化率を求め、その変化率の変曲点などの臨界点を基準に妥当な範囲を適応的に決定してもよい。
試験結果と正解値との距離が妥当な範囲を超える場合、判定部60はぼかし画像G(i)は視認不可になったと判断してステップS509に動作を移行する。
試験結果と正解値との距離が妥当な範囲に収まる場合、判定部60はぼかし画像G(i)は視認可であると判断してステップS507に動作を移行する。
Step S506: The determination unit 60 determines whether or not the distance between the test result and the correct value exceeds an appropriate range.
The reasonable range here may be set based on the value of “distance” obtained by collecting the blurred images that have been approved at the last minute in the user test.
Alternatively, a change rate of the distance with respect to the blur amount may be obtained, and an appropriate range may be adaptively determined based on a critical point such as an inflection point of the change rate.
When the distance between the test result and the correct answer value exceeds the appropriate range, the determination unit 60 determines that the blurred image G (i) is not visible, and the operation proceeds to step S509.
When the distance between the test result and the correct answer value is within an appropriate range, the determination unit 60 determines that the blurred image G (i) is view authorization, and the operation proceeds to step S507.

ステップS507: 試験部50は、画像認識の対象を次のぼかし画像に進めるため、順番iを1つ増やす。 Step S507: The test unit 50 increments the order i by one to advance the image recognition target to the next blurred image.

ステップS508: 試験部50は、n個のぼかし画像G(1)〜G(n)の画像認識が完了したか否かを判定する。順番iが「n」以下の場合、画像認識が完了していないと判定し、ステップS504に動作を移行する。一方、順番iが「n」を超えていれば、試験部50は画像認識が完了したと判定してステップS509に動作を移行する。 Step S508: The test unit 50 determines whether the image recognition of the n blurred images G (1) to G (n) is completed. When the order i is “n” or less, it is determined that the image recognition is not completed, and the operation proceeds to step S504. On the other hand, if the order i exceeds “n”, the test unit 50 determines that the image recognition is completed, and shifts the operation to step S509.

ステップS509: 判定部60は、順番iの1つ前までが視認可の限界と判断し、視認可の限界ぼかし量Lに、ぼかし量b(i−1)を代入する。なお、iが「1」の場合、ぼかし量b(1−1)=b(0)=0とする。 Step S509: The determination unit 60 determines that the one before the order i is the limit of viewing authorization, and substitutes the blurring amount b (i−1) for the limit blurring amount L of viewing authorization. When i is “1”, the blurring amount b (1-1) = b (0) = 0.

ステップS510: 判定部60は、視認可の限界ぼかし量Lに応じた値を、認識容易度とする。
上述した処理により、被検画像の認識容易度が機械学習器300を利用して自動的に得られる。
Step S510: The determination unit 60 sets a value corresponding to the limit blur amount L for viewing authorization as the recognition ease.
Through the processing described above, the degree of ease of recognizing the test image is automatically obtained using the machine learning device 300.

(実施例2のその他動作について)
実施例2のその他の動作については、機械学習器300で求めた認識容易度を使用する点を除き、実施例1の動作(例えば図5〜図8参照)と同様であるため、ここでの重複説明は省略する。
(Other operations of the second embodiment)
Other operations in the second embodiment are the same as the operations in the first embodiment (for example, see FIGS. 5 to 8) except that the recognition ease obtained by the machine learning device 300 is used. A duplicate description is omitted.

(実施例2の効果)
実施例2は、ユーザの画像認識を機械学習器300の画像認識で代替することにより、実施例1の効果と同様の効果が得られる。
さらに、実施例2は、次の効果も奏する。
(Effect of Example 2)
In the second embodiment, the same effect as that of the first embodiment can be obtained by substituting the image recognition of the user with the image recognition of the machine learning device 300.
Furthermore, Example 2 also has the following effects.

(1)実施例2では、画像認識の機械学習を行った機械学習器300を使用して、ぼかし画像について画像認識の試験を行う。その結果、実施例1のようなユーザ(人間の被験者)を必要とせずに、認識容易度を自動的に求めることが可能になる。 (1) In the second embodiment, an image recognition test is performed on a blurred image using the machine learning device 300 that has performed machine learning for image recognition. As a result, it becomes possible to automatically obtain the recognition ease without requiring a user (human subject) as in the first embodiment.

(2)実施例2では、訓練画像として、被検画像を構成する可能性がある基本パーツを機械学習器300に学習させる。そのため、機械学習器300にとって未学習(つまり初見)の画像であっても、機械学習器300は基本パーツの活性化パターンという形で画像認識の試験結果を出力することが可能になる。 (2) In the second embodiment, the machine learning device 300 is made to learn basic parts that may constitute a test image as a training image. Therefore, even if the image is unlearned (that is, the first appearance) for the machine learning device 300, the machine learning device 300 can output the image recognition test result in the form of the activation pattern of the basic part.

(3)実施例2では、被検画像の活性化パターン(画像認識の正解値)と、ぼかし画像の活性化パターン(視界がぼやけた状態での画像認識の試験結果)との距離という物理量を新たに導入する。この距離は、画像(視界)がぼやけたことによる画像認識の変容を示す。したがって、この距離が妥当な範囲内か否かを判定することにより、ぼかし画像が視認可か否かを人間の被験者に代わって評価することが可能になる。 (3) In Example 2, a physical quantity called a distance between the activation pattern of the test image (correct value for image recognition) and the activation pattern of the blurred image (image recognition test result in a state where the field of view is blurred) Newly introduced. This distance indicates a change in image recognition due to a blurred image (view). Therefore, by determining whether or not this distance is within a reasonable range, it is possible to evaluate on behalf of a human subject whether or not the blurred image is approved for viewing.

(実施形態の補足事項)
なお、上述した実施形態では、機械学習器300として、畳み込みニューラルネットワーク(図10参照)を使用した。しかしながら、本発明はこれに限定されない。
(Supplementary items of the embodiment)
In the embodiment described above, a convolutional neural network (see FIG. 10) is used as the machine learning device 300. However, the present invention is not limited to this.

例えば、機械学習器として、主として畳み込み層・活性化関数を多層化したFCN(Fully Convolutional Network)を採用してもよい。このFCNは、基本パーツを機械学習することにより、入力される映像情報(被検画像やぼかし画像)に含まれる基本パーツを特徴抽出し、基本パーツの組み合わせに応じた特徴マップの活性化パターン(活性化パターンからなる一種の画像情報)を出力するようになる。したがって、被検画像の特徴マップとぼかし画像の特徴マップとの距離(特徴マップの画素差の差分二乗和、差分二乗平均、その平方根、差分絶対値和、差分絶対値平均など)に基づいても、ぼかし画像の画像認識が妥当か否かを判定することが可能になる。   For example, an FCN (Fully Convolutional Network) in which a convolution layer and an activation function are mainly multilayered may be employed as the machine learning device. This FCN machine-learns the basic parts to extract the features of the basic parts included in the input video information (test image and blurred image), and activates the feature map activation pattern according to the combination of the basic parts ( A kind of image information consisting of activation patterns) is output. Therefore, based on the distance between the feature map of the test image and the feature map of the blurred image (difference sum of squares of difference in pixel of feature map, mean square of difference, square root thereof, sum of absolute differences, mean absolute difference, etc.) It is possible to determine whether or not the image recognition of the blurred image is appropriate.

また例えば、このような機械学習器としては、決定木学習、相関ルール学習、ニューラルネットワーク、遺伝的プログラミング、帰納論理プログラミング、サポートベクターマシン、クラスタリング、ベイジアンネットワーク、強化学習、表現学習、主成分分析、エクストリーム・ラーニング・マシン、およびその他の機械学習技法の少なくとも一つの技法に基づく学習モデルを採用してもよい。   Also, for example, such machine learners include decision tree learning, association rule learning, neural network, genetic programming, inductive logic programming, support vector machine, clustering, Bayesian network, reinforcement learning, expression learning, principal component analysis, A learning model based on at least one of extreme learning machines and other machine learning techniques may be employed.

なお、上述した実施形態では、画像認識が妥当となる最大のぼかし量を「画像認識が妥当となる限界のぼかし量」として採用した。しかしながら、本発明はこれに限定されない。例えば、画像認識が妥当となる一つ前のぼかし量を「画像認識が妥当となる限界のぼかし量」として採用することもできる。また例えば、画像認識が妥当から妥当でなくなった瞬間のぼかし量を「画像認識が妥当となる限界のぼかし量」として採用することもできる。   In the above-described embodiment, the maximum blur amount at which image recognition is valid is adopted as the “limit blur amount at which image recognition is valid”. However, the present invention is not limited to this. For example, the previous blur amount at which image recognition is valid can be adopted as the “limit blur amount at which image recognition is valid”. Further, for example, the blurring amount at the moment when the image recognition is no longer valid from the validity can be adopted as the “limit blurring amount at which the image recognition is valid”.

また、上述した実施形態では、実施例1,2を別々に説明したが、本発明はこれに限定されない。例えば、実施例1と実施例2とを一緒に実行し、機械学習器300による認識容易度が人間の認識容易度に近づくように、機械学習器300や判定部60の動作パラメータを自動ないし手動で随時に調整してもよい。   In the above-described embodiment, Examples 1 and 2 have been described separately, but the present invention is not limited to this. For example, when the first and second embodiments are executed together, the operation parameters of the machine learning device 300 and the determination unit 60 are automatically or manually set so that the recognition ease by the machine learning device 300 approaches the human recognition ease. You may adjust at any time.

さらに、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。   Furthermore, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.

また、有る実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、有る実施例の構成に他の実施例の構成を加えることも可能である。   Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment.

さらに、上述した構成の一部について、構成の追加・削除・置換をすることが可能である。   Furthermore, it is possible to add, delete, and replace a part of the configuration described above.

本発明は、視覚媒体の画像全般について視認性を評価する産業上の用途において利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used in industrial applications for evaluating the visibility of all images on visual media.

BV…境界値、10…取得部、20…処理部、30…試験部、31…提示部、32…入力部、33…端末、40…判定部、45…設定部、50…試験部、60…判定部、100…視認性評価装置、300…機械学習器、310…入力層、321…畳み込み層・活性化関数、322…プーリング層、330…ニューラルネットワーク、340…出力層、400…訓練データ、410…訓練画像、420…教師値 BV ... Boundary value, 10 ... Acquisition unit, 20 ... Processing unit, 30 ... Testing unit, 31 ... Presentation unit, 32 ... Input unit, 33 ... Terminal, 40 ... Determining unit, 45 ... Setting unit, 50 ... Testing unit, 60 DESCRIPTION OF SYMBOLS ... Determination part, 100 ... Visibility evaluation apparatus, 300 ... Machine learning device, 310 ... Input layer, 321 ... Convolution layer and activation function, 322 ... Pooling layer, 330 ... Neural network, 340 ... Output layer, 400 ... Training data , 410 ... training image, 420 ... teacher value

Claims (6)

視認性の評価対象とする画像を、被検画像として取得する取得部と、
前記被検画像からぼかし量の異なる複数のぼかし画像を生成する処理部と、
前記ぼかし画像について画像認識の試験を行い、試験結果を取得する試験部と、
前記試験結果に基づいて前記画像認識が妥当となる限界のぼかし量を求め、前記限界のぼかし量に応じた値を視認性の評価値(以下「認識容易度」)とする判定部と、
を備えたことを特徴とする視認性評価装置。
An acquisition unit for acquiring an image to be evaluated for visibility as a test image;
A processing unit for generating a plurality of blurred images having different blur amounts from the test image;
A test unit that performs an image recognition test on the blurred image and obtains a test result;
A determination unit that obtains a limit blur amount at which the image recognition is appropriate based on the test result, and sets a value according to the limit blur amount as an evaluation value of visibility (hereinafter, “recognition ease”);
A visibility evaluation apparatus comprising:
請求項1に記載の視認性評価装置において、
前記判定部は、
訓練画像の群について「視認にかかる回答時間」と「前記認識容易度」とを軸として分布を収集し、前記分布を「前記回答時間が短い側に集中する前記認識容易度の範囲A」と「前記回答時間が長い側まで分散する前記認識容易度の範囲B」とにクラス分けして得られる前記範囲A,Bの境界値を設定または更新する設定部を含み、
前記被検画像について求めた前記認識容易度が前記境界値より上の場合に、前記被検画像の視認性は良好であると判定する
ことを特徴とする視認性評価装置。
In the visibility evaluation apparatus according to claim 1,
The determination unit
A distribution is collected about the group of training images with “answer time required for visual recognition” and “recognition ease” as axes, and the distribution is defined as “the range A of recognition ease where the answer time is concentrated”. Including a setting unit for setting or updating boundary values of the ranges A and B obtained by classifying into “the range B of the recognition degree that is distributed to the long side of the answer time”,
The visibility evaluation apparatus characterized by determining that the visibility of the test image is good when the recognition ease obtained for the test image is higher than the boundary value.
請求項1〜2のいずれか1項に記載の視認性評価装置において、
前記試験部は、
複数の前記ぼかし画像を前記ぼかし量の大きい順に提示する提示部と、
前記ぼかし画像を提示されたユーザから視認結果を取得するための入力部とを備える
ことを特徴とする視認性評価装置。
In the visibility evaluation apparatus of any one of Claims 1-2,
The test section is
A presentation unit that presents the plurality of blurred images in descending order of the blur amount;
An input unit for acquiring a visual recognition result from a user presented with the blurred image.
請求項1〜2のいずれか1項に記載の視認性評価装置において、
前記試験部は、
訓練画像と教師値とを含むデータセットの群を訓練データとして前記画像認識の機械学習を行った機械学習器を備え、前記機械学習器を用いて前記ぼかし画像について前記画像認識の試験を行う
ことを特徴とする視認性評価装置。
In the visibility evaluation apparatus of any one of Claims 1-2,
The test section is
A machine learning device that performs machine learning of the image recognition using a group of data sets including a training image and a teacher value as training data, and performs the image recognition test on the blurred image using the machine learning device. The visibility evaluation apparatus characterized by this.
コンピュータを、請求項1〜4のいずれか1項に記載の前記取得部、前記処理部、前記試験部、および前記判定部として機能させる
ことを特徴とする視認性評価プログラム。
A visibility evaluation program that causes a computer to function as the acquisition unit, the processing unit, the test unit, and the determination unit according to any one of claims 1 to 4.
視認性の評価対象とする画像を、被検画像として取得する入力ステップと、
前記被検画像からぼかし量の異なる複数のぼかし画像を生成する処理ステップと、
前記ぼかし画像について画像認識の試験を行い、試験結果を取得する試験ステップと、
前記試験結果に基づいて前記画像認識が妥当となる限界のぼかし量を求め、前記限界のぼかし量に応じた値を視認性の評価値(以下「認識容易度」)とする判定ステップと、
を備えて、視認性評価サービスを提供することを特徴とする視認性評価方法。
An input step of acquiring an image to be evaluated for visibility as a test image;
Processing steps for generating a plurality of blurred images having different blur amounts from the test image;
A test step of performing an image recognition test on the blurred image and obtaining a test result;
A determination step of obtaining a limit blur amount at which the image recognition is appropriate based on the test result, and setting a value corresponding to the limit blur amount as an evaluation value of visibility (hereinafter, “recognition ease”);
And providing a visibility evaluation service.
JP2019020152A 2019-02-06 2019-02-06 Visibility evaluation apparatus, visibility evaluation program, and visibility evaluation method Active JP6616536B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019020152A JP6616536B1 (en) 2019-02-06 2019-02-06 Visibility evaluation apparatus, visibility evaluation program, and visibility evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020152A JP6616536B1 (en) 2019-02-06 2019-02-06 Visibility evaluation apparatus, visibility evaluation program, and visibility evaluation method

Publications (2)

Publication Number Publication Date
JP6616536B1 true JP6616536B1 (en) 2019-12-04
JP2020126563A JP2020126563A (en) 2020-08-20

Family

ID=68763465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020152A Active JP6616536B1 (en) 2019-02-06 2019-02-06 Visibility evaluation apparatus, visibility evaluation program, and visibility evaluation method

Country Status (1)

Country Link
JP (1) JP6616536B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7451392B2 (en) 2020-12-28 2024-03-18 住友重機械工業株式会社 Image processing device, image processing method, image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4583218B2 (en) * 2004-07-05 2010-11-17 インターナショナル・ビジネス・マシーンズ・コーポレーション Method, computer program, and system for evaluating target content
CN110050225A (en) * 2016-11-30 2019-07-23 株式会社尼康依视路 The design method of eyeglass, the manufacturing method of eyeglass, eyeglass ordering apparatus, eyeglass order accepting device, eyeglass, which are ordered and ordered, receives system, progressive refractive power glasses lens, single focus eyeglass
CN110382297B (en) * 2017-03-15 2022-08-09 三菱电机株式会社 Light quantity adjusting device, light quantity adjusting method, and computer-readable storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7451392B2 (en) 2020-12-28 2024-03-18 住友重機械工業株式会社 Image processing device, image processing method, image processing program

Also Published As

Publication number Publication date
JP2020126563A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
CN102629379B (en) Image quality evaluation method based on visual characteristic
Rockcastle et al. Contrast measures for predicting perceptual effects of daylight in architectural renderings
JP4683200B2 (en) Automatic hair region extraction method
CN114175045B (en) Determining user characteristics using brightness variations
Engelke et al. Comparative study of fixation density maps
CN103815866A (en) Visual function testing method and control device
US9142196B2 (en) Light box effect for viewing digital radiographic images
Thompson et al. Simulating visibility under reduced acuity and contrast sensitivity
CN111311523A (en) Image processing method, device and system and electronic equipment
CN106651430A (en) Objective advertisement design evaluation method based on visual attention mechanism
Sutton et al. Seeing colours: addressing colour vision deficiency with vision augmentations using computational glasses
JP6616536B1 (en) Visibility evaluation apparatus, visibility evaluation program, and visibility evaluation method
D. Frowd et al. Constructing faces from memory: the impact of image likeness and prototypical representations
Lin et al. Evaluating the image quality of closed circuit television magnification systems versus a head-mounted display for people with low vision
CN110728630A (en) Internet image processing method based on augmented reality and augmented reality glasses
Perea García et al. Not everything is blue or brown: Quantification of ocular coloration in psychological research beyond dichotomous categorizations
Livatino et al. Photorealistic true-dimensional visualization of remote panoramic views for VR headsets
JP2019107071A (en) Makeup advice method
JP2022058315A (en) Assist system, assist method and assist program
KR20230011012A (en) Child emotional, psychological, behavioral pre-checking and healing solution system using pictures, and child emotional, psychological, behavioral pre-checking and healing method using the same
Radun et al. Why is quality estimation judgment fast? Comparison of gaze control strategies in quality and difference estimation tasks
Farnand Designing pictorial stimuli for perceptual image difference experiments
Hombeck et al. A Study of Opacity Ranges for Transparent Overlays in 3D Landscapes
CN110969705B (en) Training system, method and medium for intelligent evaluation of pre-school mental reinforcement
Korshunov et al. Influence of Context and Content on Tone-mapping Operators

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190208

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191004

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191021

R150 Certificate of patent or registration of utility model

Ref document number: 6616536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250