JP2022117780A - Image generation method and learned neural network model generated by image generation method thereof, image generator, image generation system, and image generation program - Google Patents
Image generation method and learned neural network model generated by image generation method thereof, image generator, image generation system, and image generation program Download PDFInfo
- Publication number
- JP2022117780A JP2022117780A JP2021014469A JP2021014469A JP2022117780A JP 2022117780 A JP2022117780 A JP 2022117780A JP 2021014469 A JP2021014469 A JP 2021014469A JP 2021014469 A JP2021014469 A JP 2021014469A JP 2022117780 A JP2022117780 A JP 2022117780A
- Authority
- JP
- Japan
- Prior art keywords
- image
- neural network
- image generation
- input image
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003062 neural network model Methods 0.000 title claims description 6
- 208000004870 Refractive Errors Diseases 0.000 claims abstract description 79
- 230000001537 neural Effects 0.000 claims abstract description 48
- 238000006243 chemical reaction Methods 0.000 claims abstract description 28
- 230000000007 visual effect Effects 0.000 claims abstract description 26
- 230000001953 sensory Effects 0.000 claims description 26
- 210000001747 Pupil Anatomy 0.000 claims description 7
- 230000000875 corresponding Effects 0.000 claims description 4
- 230000004075 alteration Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 208000001491 Myopia Diseases 0.000 description 8
- 230000004379 myopia Effects 0.000 description 8
- 238000004088 simulation Methods 0.000 description 8
- 201000009310 astigmatism Diseases 0.000 description 5
- 238000000034 method Methods 0.000 description 5
- 201000010041 presbyopia Diseases 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 206010010050 Colour blindness Diseases 0.000 description 2
- 241000983672 Ficus natalensis Species 0.000 description 2
- 206010020675 Hypermetropia Diseases 0.000 description 2
- 201000007254 color blindness Diseases 0.000 description 2
- 230000004456 color vision Effects 0.000 description 2
- 201000006318 hyperopia Diseases 0.000 description 2
- 230000004305 hyperopia Effects 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 230000003287 optical Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 210000001525 Retina Anatomy 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004342 moderate myopia Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Abstract
Description
本発明は、近視や遠視、乱視などの屈折異常者が、裸眼であればぼけて見える画像であっても、補正が行われることにより、裸眼でもはっきりと正常に見える(屈折異常者の眼からはっきりと正常に知覚可能な画像である)知覚画像を生成する画像生成方法およびその画像生成方法により生成された学習済みニューラルネットワークモデル、ならびに画像生成装置、画像生成システム、画像生成プログラムなどに関するものである。 In the present invention, even if a person with refractive error such as myopia, hyperopia, or astigmatism sees a blurry image with the naked eye, it can be clearly seen normally even with the naked eye by correcting it (from the eyes of the person with refractive error). This relates to an image generation method for generating a perceptual image (which is an image that can be clearly and normally perceived), a trained neural network model generated by the image generation method, an image generation device, an image generation system, an image generation program, etc. be.
近年、パソコンやスマートフォン、テレビなどが普及し、人々がこれらの表示画面を見る時間も増えており、そのような中、近視や乱視を患う者の数が全国的に増加している。また、近年の高齢化に伴い、高齢者、つまり老眼である者の数も増加している。そして、このような近視や乱視、老眼など、眼の前の対象物を見ようとするときの眼のピント調節が難しい、いわゆる屈折異常者は、裸眼ではパソコンやスマートフォンなどの表示画面がぼけて見えてしまう。 In recent years, personal computers, smartphones, televisions, and the like have become widespread, and the amount of time people spend looking at these display screens has increased. In addition, with the aging of the population in recent years, the number of elderly people, that is, people with presbyopia is also increasing. People with refractive error, such as myopia, astigmatism, and presbyopia, who have difficulty adjusting the focus of their eyes when trying to see an object in front of them, see the display screens of computers and smartphones as blurry with the naked eye. end up
ここで、表示画面を見やすくする技術として、例えば特許文献1,2に記載のものがある。特許文献1には、ウェブページを画面表示した場合の画像の見やすさを解析し、適切な修正を行うことができるデータ編集装置が記載されている。具体的には、特許文献1には、HTML文書をレンダリングして画像を生成するレンダリング部と、このレンダリング部にて生成された画像を画像処理し、所定の視覚特性に基づく画像の見え方をシミュレートして評価する画像処理部と、この画像処理部の評価結果に基づいて、処理対象であるHTML文書における修正すべきHTMLエレメントを特定してウェブページ制作者に呈示する結果呈示部とを備え、結果呈示部にて、修正すべきHTMLエレメントに対する修正方法を症状モデル格納部から検索し、文書修正処理部にて、実際にHTML文書を修正するデータ編集装置が記載されている。
Here, for example,
また、特許文献2には、反復演算を行い、入力された低解像画像を基に、視覚的に精細感のある高解像画像を得ることのできる超解像装置が記載されている。
Further,
しかし、特許文献1,2に係る発明は、その都度、屈折異常者が見る画像毎に画像処理を行う必要があり、対応可能な画像が限られてしまう可能性もあるため、汎用性が高いとはいえない。つまり、実際にパソコンやスマートフォンなどの端末に適用して、自然物が写った画像や文字が写った画像など、様々な画像や動画に対して画像処理を行うことは難しい。
However, the inventions according to
そこで、本発明は、屈折異常者のそれぞれの視覚特性に応じて補正され、様々な画像や動画に対しても、裸眼でもはっきりと正常に見える知覚画像を高速に出力(生成)する画像生成方法およびその画像生成方法により生成された学習済みニューラルネットワークモデル、ならびに画像生成装置、画像生成システム、画像生成プログラムなどを提供する。 Therefore, the present invention provides an image generation method for quickly outputting (generating) perceptual images that are corrected according to the visual characteristics of each person with refractive error and that are clearly normal even to the naked eye, even for various images and moving images. and a trained neural network model generated by the image generation method, an image generation device, an image generation system, an image generation program, and the like.
本発明の画像生成方法は、ニューラルネットワークを用いて、入力画像に画像処理を施すこと、ぼけ再現数理モデルを用いて、入力画像にさらに画像処理を施して、屈折異常者の視覚特性に応じたぼかし処理が施された知覚模擬画像を出力すること、入力画像と知覚模擬画像との比較により、ニューラルネットワークのパラメータを更新すること、を含む学習ステップと、パラメータが更新された後のニューラルネットワークを用いて、入力画像に画像処理を施して屈折異常者の眼から正常に知覚可能な知覚画像を出力する推論ステップと、を含む。 The image generation method of the present invention uses a neural network to perform image processing on an input image, and uses a blur reproduction mathematical model to further perform image processing on the input image, so as to obtain an image that corresponds to the visual characteristics of a person with refractive error. A learning step including outputting a blurred perceptually simulated image, updating the parameters of the neural network by comparing the input image and the perceptually simulated image, and performing the neural network after the parameters have been updated. applying image processing to the input image using the inference step to output a perceptual image that is normally perceptible to the eye of the refractive error patient.
また、本発明の画像生成装置は、ニューラルネットワークを用いて、入力画像に画像処理を施す変換部と、ぼけ再現数理モデルを用いて、変換部により画像処理が施された入力画像にさらに画像処理を施して、屈折異常者の視覚特性に応じたぼかし処理が施された知覚模擬画像を出力するぼかし部と、入力画像と知覚模擬画像との比較により、ニューラルネットワークのパラメータを更新し、学習済みのニューラルネットワークを生成する更新部と、を含む。 Further, the image generating apparatus of the present invention includes a conversion unit that performs image processing on an input image using a neural network, and further image processing on the input image that has been subjected to image processing by the conversion unit using a blur reproduction mathematical model. is applied, and the blurring unit outputs a simulated perceptual image that has undergone blurring processing according to the visual characteristics of a person with refractive error. By comparing the input image and the simulated perceptual image, the parameters of the neural network are updated and trained. and an updater that generates a neural network of .
本発明の画像生成方法および画像生成装置の構成によれば、ニューラルネットワークで入力画像に画像処理が施され、その後さらにぼけ再現数理モデルでぼかし処理が施された知覚模擬画像が出力され、この入力画像と知覚模擬画像との比較により、つまり入力画像と知覚模擬画像との誤差が最小となるように、ニューラルネットワークのパラメータが更新される。そして、当該パラメータが更新された後のニューラルネットワークにより、屈折異常者の眼からはっきりと正常に知覚可能な画像である知覚画像が出力される。 According to the configuration of the image generating method and the image generating apparatus of the present invention, the input image is subjected to image processing by the neural network, and then the sensory simulated image is further subjected to the blur processing by the blur reproduction mathematical model. The parameters of the neural network are updated by comparing the image and the perceptually simulated image, ie, so that the error between the input image and the perceptually simulated image is minimized. After the parameters have been updated, the neural network outputs a perceived image, which is an image that can be clearly and normally perceived by the eyes of a person with refractive error.
また、ぼけ再現数理モデルは、屈折異常者が入力画像を見たときにぼけて知覚される知覚模擬画像を出力することが望ましい。これにより、屈折異常者の眼から見えるぼけ方に応じた知覚模擬画像が出力されるため、当該屈折異常者の眼から見えるぼけ方に応じてニューラルネットワークのパラメータの更新を行うことができる。 Further, the blur reproduction mathematical model preferably outputs a perceptually simulated image that is perceived as blurred when a person with refractive error sees the input image. As a result, a simulated perceptual image corresponding to the blurring seen by the eyes of the refractive error person is output, so that the parameters of the neural network can be updated according to the blurring seen by the eyes of the refractive error patient.
また、学習ステップは、入力画像と知覚模擬画像との誤差が最小となるように、ニューラルネットワークのパラメータを更新し、誤差は、入力画像と知覚模擬画像の画素値に基づく損失関数により求められるものであり、損失関数により求められた誤差が所定の条件を満たすまで学習ステップを繰り返すことが望ましい。これにより、入力画像と、知覚模擬画像との誤差をより小さくすることができる。 Also, in the learning step, the parameters of the neural network are updated so as to minimize the error between the input image and the perceptually simulated image, and the error is obtained by a loss function based on the pixel values of the input image and the perceptually simulated image. and it is desirable to repeat the learning step until the error obtained by the loss function satisfies a predetermined condition. This makes it possible to further reduce the error between the input image and the perceptually simulated image.
なお、本発明の学習済みニューラルネットワークモデル(以下、単に「学習済みモデル」と称す場合もある)は、ニューラルネットワークを用いて、入力画像に画像処理を施すこと、ぼけ再現数理モデルを用いて、入力画像にさらに画像処理を施して、屈折異常者の視覚特性に応じたぼかし処理が施された知覚模擬画像を出力すること、入力画像と知覚模擬画像との比較により、ニューラルネットワークのパラメータを更新すること、を含む画像生成方法により生成された、学習済みのニューラルネットワークモデルである。 In addition, the trained neural network model of the present invention (hereinafter sometimes simply referred to as "trained model") performs image processing on an input image using a neural network, uses a blur reproduction mathematical model, Further image processing is applied to the input image to output a simulated perceptual image that has undergone blurring processing according to the visual characteristics of a person with refractive error.By comparing the input image and the simulated perceptual image, the parameters of the neural network are updated. is a trained neural network model generated by an image generation method including:
さらに、本発明の画像生成プログラムは、ニューラルネットワークを用いて、入力画像に画像処理を施す変換部と、ぼけ再現数理モデルを用いて、変換部により画像処理が施された入力画像にさらに画像処理を施して、屈折異常者の視覚特性に応じたぼかし処理が施された知覚模擬画像を出力するぼかし部と、入力画像と知覚模擬画像との比較により、ニューラルネットワークのパラメータを更新し、学習済みのニューラルネットワークを生成する更新部と、を含む画像生成装置としてコンピュータを機能させるプログラムである。 Further, the image generation program of the present invention includes a conversion unit that performs image processing on an input image using a neural network, and further image processing on the input image that has been subjected to image processing by the conversion unit using a blur reproduction mathematical model. is applied, and the blurring unit outputs a simulated perceptual image that has undergone blurring processing according to the visual characteristics of a person with refractive error. By comparing the input image and the simulated perceptual image, the parameters of the neural network are updated and trained. and an updating unit that generates a neural network of .
また、本発明の画像生成システムは、この画像生成装置と、この画像生成装置と接続され、入力画像を画像生成装置に送信する端末であり、画像生成装置により出力された当該入力画像に対する知覚画像を受信して表示する表示部を含む端末と、を含む。
さらに、端末は、更新部により生成された学習済みニューラルネットワークを用いて、入力画像に画像処理を施して屈折異常者の眼から正常に知覚可能な知覚画像を出力する知覚画像生成部を含む。
Further, the image generation system of the present invention includes the image generation device and a terminal connected to the image generation device for transmitting an input image to the image generation device. a terminal including a display that receives and displays the
Furthermore, the terminal includes a perceptual image generator that performs image processing on the input image using the trained neural network generated by the updater and outputs a perceptual image that can be normally perceived by the eyes of a person with refractive error.
(1)本発明の画像生成方法や画像生成装置によれば、上述した構成に基づいて、ニューラルネットワークで入力画像に画像処理が施され、その後さらにぼけ再現数理モデルでぼかし処理が施された知覚模擬画像が出力され、この入力画像と知覚模擬画像との比較により、つまり入力画像と知覚模擬画像との誤差が最小となるように、ニューラルネットワークのパラメータが更新される。そして、当該パラメータが更新された後のニューラルネットワークにより、屈折異常者の眼からはっきりと正常に知覚可能な画像である知覚画像が出力される。そして、一度パラメータの更新(学習)を終えてしまえば、当該パラメータが更新された後の学習済みモデルを用いて、様々な画像や動画に対しても、高速に入力画像に基づいて知覚画像の出力を行うことができる。 (1) According to the image generation method and the image generation device of the present invention, based on the above-described configuration, the input image is subjected to image processing by the neural network, and then the blur processing is further performed by the blur reproduction mathematical model. A simulated image is output, and the parameters of the neural network are updated by comparing the input image and the perceptually simulated image, that is, by minimizing the error between the input image and the perceptually simulated image. After the parameters have been updated, the neural network outputs a perceived image, which is an image that can be clearly and normally perceived by the eyes of a person with refractive error. Once the parameters have been updated (learned), the trained model after the parameters have been updated can be used to rapidly generate perceptual images based on the input image for various images and videos. Output can be done.
(2)また、ぼけ再現数理モデルは、屈折異常者が入力画像を見たときにぼけて知覚される知覚模擬画像を出力する構成により、屈折異常者の眼から見えるぼけ方に応じた知覚模擬画像が出力されるため、当該屈折異常者の眼から見えるぼけ方に応じてニューラルネットワークのパラメータの更新を行うことができ、屈折異常の種類や屈折度数などに応じたそれぞれの屈折異常者の眼からの見え方に合わせて、適切な知覚画像を出力することができる。 (2) In addition, the blur reproduction mathematical model is configured to output a perceptually simulated image that is perceived as being blurred when a person with refractive error sees an input image. Since the image is output, it is possible to update the parameters of the neural network according to the blurring seen from the eye of the person with refractive error, and the eye of the person with refractive error can be updated according to the type of refractive error and refractive power. It is possible to output an appropriate perceptual image according to how it is seen from.
(3)また、学習ステップは、入力画像と知覚模擬画像との誤差が最小となるように、ニューラルネットワークのパラメータを更新し、誤差は、入力画像と知覚模擬画像の画素値に基づく損失関数により求められるものであり、損失関数により求められた誤差が所定の条件を満たすまで学習ステップを繰り返す構成により、入力画像と、知覚模擬画像との誤差をより小さくすることができ、より精度の高い(屈折異常者の眼から、よりはっきりと正常に見える)知覚画像を出力することができる。 (3) In the learning step, the parameters of the neural network are updated so that the error between the input image and the perceptually simulated image is minimized. By repeating the learning step until the error obtained by the loss function satisfies a predetermined condition, the error between the input image and the perceptual simulated image can be made smaller, and the accuracy is higher ( It can output a perceptual image that appears clearer and normal from an ametropic eye).
なお、学習済みモデルがデプロイされた端末や、画像生成プログラムが実行されたコンピュータによれば、本発明の画像生成方法や画像生成装置と同様の作用効果を奏することができる。 It should be noted that a terminal to which the learned model is deployed and a computer on which the image generation program is executed can provide the same effects as the image generation method and image generation device of the present invention.
さらに、更新部により生成された学習済みニューラルネットワークを用いて、入力画像に画像処理を施して屈折異常者の眼から正常に知覚可能な知覚画像を出力する変換部を含む画像生成装置と、この画像生成装置と接続され、入力画像を画像生成装置に送信する端末であり、画像生成装置により出力された当該入力画像に対する知覚画像を受信して表示する表示部を含む端末と、を含む画像生成システムによれば、利用者は変換部により出力された知覚画像を受信して自身が所有する機器に表示させることができたり、表示部を含む端末を利用することができるため、利便性が向上する。 Furthermore, an image generation device including a conversion unit that performs image processing on an input image using a trained neural network generated by the update unit and outputs a perceptual image that can be normally perceived by the eyes of a person with refractive error; a terminal that is connected to the image generation device and that transmits an input image to the image generation device, and that includes a display unit that receives and displays a perceived image corresponding to the input image output by the image generation device. According to the system, the user can receive the perceptual image output by the conversion unit and display it on their own equipment, or use a terminal that includes a display unit, improving convenience. do.
以下に本発明の実施の形態を詳細に説明するが、以下に記載する構成要件の説明は、本発明の実施態様の一例(代表例)であり、本発明はその要旨を変更しない限り、以下の内容に限定されない。 Embodiments of the present invention will be described in detail below. is not limited to the contents of
[画像生成装置]
図1は、本発明の実施の形態に係る画像生成装置を示す概略構成図である。また、図2は、本発明の実施の形態に係る画像生成装置を説明するための説明図である。図2に示すように、屈折異常者は、裸眼の場合だと画像P201が画像P202のようにぼけて見える(屈折異常者の眼からは、ぼけて知覚される)。そのため、画像生成装置1は、屈折異常者が裸眼の場合でも画像P212のようにはっきりと正常に見える(屈折異常者の眼からは、はっきりと正常に知覚される)ように、画像P201に画像処理を行い補正した画像P211を生成する。
[Image generation device]
FIG. 1 is a schematic configuration diagram showing an image generation device according to an embodiment of the present invention. Also, FIG. 2 is an explanatory diagram for explaining the image generation device according to the embodiment of the present invention. As shown in FIG. 2, the image P201 is blurred like the image P202 to the naked eye of the refractive error person (perceived by the eyes of the refractive error person to be blurred). Therefore, the
図1に示すように、画像生成装置1は、記憶部100、変換部200、ぼかし部300、更新部400を含む。
As shown in FIG. 1, the
記憶部100は、入力画像や学習済みモデル、その他一時的な情報などを記憶する領域である。
具体的には、本発明の画像生成方法の学習ステップにおいては、
(1)画像データ(入力画像、知覚模擬画像など)の記憶。
(2)ぼけ再現数理モデルの記憶。
(3)ニューラルネットワークモデルの記憶。
(4)学習済みモデル(学習途中のものを含む)の記憶。
などである。また、本発明の画像生成方法の推論ステップにおいては、
(1)学習済みモデルの記憶。
などである。
The
Specifically, in the learning step of the image generation method of the present invention,
(1) Storage of image data (input image, sensory simulation image, etc.).
(2) Storage of the blur reproduction mathematical model.
(3) storage of neural network models;
(4) Memorization of learned models (including those in the process of learning).
and so on. Also, in the inference step of the image generation method of the present invention,
(1) Storage of trained models.
and so on.
変換部200は、ニューラルネットワーク(以下、「NN」と称す場合もある)を用いて、入力画像に対して画像処理を施す。NNは、例えば、CNN(Convolutional Neural Network)やオートエンコーダなどである。
The
ぼかし部300は、ぼけ再現数理モデルを用いて、画像をぼかして出力する。具体的には、屈折異常者の視覚特性に応じて画像にぼかし処理を施して、屈折異常者の眼から見えるぼけた画像を出力する(図3参照)。
A
更新部400は、画像生成装置1に入力される入力画像P101と、変換部200およびぼかし部300で画像処理された知覚模擬画像P103を比較して、誤差を求める。そして、当該誤差が最小となるように(つまり、知覚模擬画像P103が入力画像P101に近づくように)、NNのパラメータ(重みやバイアス)を更新する。
The
また、変換部200は、更新部400によりパラメータが更新された後のNNを用いて、入力画像に対して画像処理を施して補正画像として出力する。例えば、入力画像P101に画像処理を施して、補正画像P111を出力する。この補正画像P111を屈折異常者が見ると、図3に例示されるぼけた画像P102のようにぼけたものではなく、入力画像P101のようにはっきりと正常に見える。以下、このような屈折異常者が見るとはっきりと正常に見えるように画像処理が施された補正画像を、「知覚画像」と称す場合もある。
Further, the
[画像生成方法]
以下、各図面を参照して、本発明の画像生成方法の実施の形態を、本発明の画像生成装置の実施の形態と合わせて説明する。本発明の画像生成方法の実施の形態は、学習ステップと、推論ステップとを含む。
[Image generation method]
Embodiments of the image generating method of the present invention will be described below together with embodiments of the image generating apparatus of the present invention with reference to the drawings. An embodiment of the image generation method of the present invention includes a learning step and an inference step.
(1)学習ステップ
図4(A)は、本発明の実施の形態に係る画像生成方法の学習ステップにおけるフロー図である。本実施の形態において、NNはCNNとする。学習ステップは、入力画像P101に基づいて学習を行い、CNNのパラメータを更新することで、学習済みモデルを生成する(図1のフローF1)。また、学習ステップにおける入力画像P101は、複数枚の教師画像のセット(教師画像データセット)とする。
(1) Learning Step FIG. 4A is a flow diagram of the learning step of the image generation method according to the embodiment of the present invention. In this embodiment, NN is CNN. In the learning step, learning is performed based on the input image P101, and the parameters of the CNN are updated to generate a trained model (flow F1 in FIG. 1). Also, the input image P101 in the learning step is a set of a plurality of teacher images (teacher image data set).
入力画像P101は、記憶部100に記憶され、最初に変換部200のCNNにより画像処理が施される(ステップS101)。CNNは、画像処理を行う畳み込みニューラルネットワークであり、超解像畳み込みニューラルネットワーク(SRCNN:Super-Resolution Convolutional Neural Network)や、FSRCNN(Fast SRCNN)、VDSR(Very Deep Super Resolution)などを用いることができる。
The input image P101 is stored in the
CNNにより画像処理が施された入力画像P101は、次に、ぼかし部300のぼけ再現数理モデルによりぼかし処理が施される(ステップS102)。ぼけ再現数理モデルにより、屈折異常者の視覚特性に応じて、CNNにより画像処理が施された補正画像に、さらに画像処理(ぼかし処理)が行われ、このぼかし処理後の画像を屈折異常者が見た場合に、当該屈折異常者の眼から見えるぼけた画像を知覚模擬画像P103として出力する。つまり、ぼけ再現数理モデルは、画像処理を行い、屈折異常者の眼から見えるぼけた画像を再現するものである。そして、知覚模擬画像とは、ぼかし部300のぼけ再現数理モデルによりぼかし処理を施すことで、「屈折異常者の眼から見える画像」を再現したものである。
The input image P101 subjected to image processing by the CNN is then subjected to blurring processing by the blur reproduction mathematical model of the blurring unit 300 (step S102). Using a blur reproduction mathematical model, the corrected image that has undergone image processing by CNN is further subjected to image processing (blurring) according to the visual characteristics of the person with refractive error, and the image after this blurring is processed by the person with refractive error. A blurred image that can be seen from the eyes of the person with refractive error when viewed is output as a sensory simulated image P103. In other words, the blur reproduction mathematical model performs image processing to reproduce a blurred image seen through the eyes of a person with refractive error. A simulated perceptual image is a reproduction of an “image seen through the eyes of a person with refractive error” by performing blurring processing using a blur reproduction mathematical model of the
このように、CNNにより解像度の補正処理が行われた後に、ぼけ再現数理モデルによりぼかし処理が行われた知覚模擬画像P103が出力される。その後、更新部400により、当該出力された知覚模擬画像P103と、記憶部100に記憶された、変換部200やぼかし部300で画像処理が行われる前の入力画像P101の比較が行われる。
In this way, after the resolution correction processing is performed by the CNN, the sensory simulated image P103 subjected to the blurring processing by the blur reproduction mathematical model is output. After that, the
この比較により、更新部400は、入力画像P101と知覚模擬画像P103の誤差を求める(ステップS103)。また、更新部400は、この求めた誤差が最小二乗法などにより最小となるように、NNのパラメータを更新する。
この誤差は、例えば、入力画像P101と知覚模擬画像P103の画素値の平均二乗誤差である。具体的には、入力画像P101と知覚模擬画像P103の各画素値の誤差を二乗し、その総和をデータ数(画素数)で割って算出した値である。そして、更新部400は、当該平均二乗誤差が所定の条件を満たすか否かを判断し、満たしていない場合は、満たすまで学習ステップ(ステップS101~ステップS103)を繰り返す(ステップS104)。
Based on this comparison, the updating
This error is, for example, the mean square error between the pixel values of the input image P101 and the sensory simulated image P103. Specifically, it is a value calculated by squaring the error of each pixel value between the input image P101 and the sensory simulated image P103 and dividing the sum by the number of data (the number of pixels). Then, the
ここで、所定の条件を満たすまでとは、例えば、平均二乗誤差が一定値以下となった場合や、平均二乗誤差の変化が所定の回数なかった場合などである。要するに、平均二乗誤差が十分に収束されたと判断された場合である。 Here, until a predetermined condition is satisfied is, for example, the case where the mean square error becomes equal to or less than a certain value, or the case where the mean square error does not change a predetermined number of times. In short, this is the case when it is determined that the mean squared error has sufficiently converged.
平均二乗誤差が所定の条件を満たすと判断された場合、学習ステップが終了する(ステップS105)。つまり、知覚模擬画像P103が入力画像P101に十分近づいたと判定された時点で、学習ステップが終了する。この時、学習済みモデルは、記憶部100に記憶(保存)される。このような判定やNNのパラメータ更新は、例えば、学習ステップにおける損失関数を平均二乗誤差として実現することができる。
If it is determined that the mean squared error satisfies the predetermined condition, the learning step ends (step S105). That is, the learning step ends when it is determined that the sensory simulation image P103 is sufficiently close to the input image P101. At this time, the learned model is stored (saved) in the
ここで、上記の、知覚模擬画像P103を入力画像P101に十分近付ける点に関して説明する。
知覚模擬画像P103は、屈折異常者の視覚特性に応じて再現した、屈折異常者の眼から見えるぼけた画像であるが、変換部200により予め、入力画像P101が高鮮鋭化された画像であり、さらに当該画像により当該屈折異常者の眼から見て、明確に見える部分と見えにくい部分が区別されたものとなる。
Here, the point of bringing the perceptual simulation image P103 sufficiently close to the input image P101 will be described.
The sensory simulated image P103 is a blurred image that can be seen through the eyes of the person with refractive error reproduced according to the visual characteristics of the person with refractive error. Further, the image distinguishes clearly visible parts and difficult-to-see parts from the eyes of the refractive error patient.
学習ステップにおける更新部400は、このような知覚模擬画像P103の状態を加味し、明確に見える部分と共に、特に、屈折異常者の眼から見て見えにくい部分を、近視や乱視、及び老眼等ではない人が見て通常、明確に見える入力画像P101に近付ける処理を行っている。
The updating
つまり、本発明は、上記のように近視や乱視、及び老眼等ではない人が見て通常、明確に見える画像等、ユーザ(本発明の利用者)が知覚させたいと思う画像をはっきりと見えるように画像処理するものである。このため、本発明では、従来のように、画一的に表示画面を見やすくする画像処理と比較し、ユーザの知覚ニーズに合わせながら、さらに視覚特性に応じて処理された画像が得られる。 In other words, according to the present invention, an image that a user (a user of the present invention) wants to perceive can be clearly seen, such as an image that is normally seen clearly by a person who does not have myopia, astigmatism, or presbyopia as described above. The image is processed as follows. Therefore, in the present invention, compared with the conventional image processing that uniformly makes the display screen easier to see, it is possible to obtain an image that is further processed according to the visual characteristics while meeting the perception needs of the user.
本発明により処理される入力画像としては、後述にも例示しているが、ユーザにどのように知覚させたいかという観点が考慮されていれば、例えば、入力画像を予め、古典的な画像処理である鮮鋭化や画像強調を施したものであってもよい。なお、そもそも、入力画像が鮮明でない場合は予め鮮鋭化処理したものを生成し、学習ステップに供する必要があることは言うまでもない。
このような知見は、本発明者による、本発明のこれまでの鋭意研究により見出されたものである。
The input image processed by the present invention will be exemplified later. It may be the one subjected to sharpening or image enhancement. Needless to say, if the input image is not sharp, it is necessary to generate a sharpened image in advance and apply it to the learning step.
Such findings have been found by the present inventors through the present intensive studies of the present invention.
以上の手順により、学習ステップにおいて学習済みモデルが生成される。ここで、損失関数は平均絶対誤差やSSIM(Structural Similarity)でもよく、KerasやChainerなどの深層学習のライブラリを利用して実装することができる。また、誤差は、上述した具体例以外でも画像間の差異を測る指標であればよく、更新部400は、この指標を得るための手法を適宜採用することができる。
Through the above procedure, a trained model is generated in the learning step. Here, the loss function may be mean absolute error or SSIM (Structural Similarity), and can be implemented using a deep learning library such as Keras or Chainer. Also, the error may be an index for measuring the difference between images other than the specific examples described above, and the
(2)推論ステップ
図4(B)は、本発明の実施の形態に係る画像生成方法の推論ステップにおけるフロー図である。推論ステップは、入力画像P101に対して、学習ステップで生成された学習済みモデルにより画像処理を行い、知覚画像P111を出力する(図1のフローF2)。
推論ステップの際には、画像生成装置1の記憶部100に学習済みモデルが記憶される。学習済みモデルは、画像生成装置1で生成された学習済みモデルを別の画像生成装置1の記憶部100に記憶させることで、当該別の画像生成装置1で推論を行うこともできる。また、学習済みモデルを端末(エッジデバイス)にデプロイさせたり、クラウドサーバに記憶させて、当該端末などで推論を行うこともできる。
(2) Inference Step FIG. 4B is a flow diagram of the inference step of the image generation method according to the embodiment of the present invention. The inference step performs image processing on the input image P101 using the trained model generated in the learning step, and outputs a perceptual image P111 (flow F2 in FIG. 1).
During the inference step, the learned model is stored in the
画像生成装置1に画像が入力されると、まず、記憶部100に記憶された学習済みモデルを用いて、変換部200は入力画像P101に画像処理を施す(ステップS201)。そして、知覚画像P111として出力する(ステップS202)。推論ステップにおける入力画像は、例えば、屈折異常者が所有し、閲覧するパソコンやスマートフォンなどの画面に表示される画像である。
屈折異常者は、裸眼で見た場合、何も画像処理が行われていない入力画像P101はぼけてしまうが(図1のぼけた画像P102)、学習済みモデルで画像処理が行われた知覚画像P111は、はっきり正常に見える。
When an image is input to the
When viewed by a person with refractive error with the naked eye, the input image P101 without any image processing is blurred (blurred image P102 in FIG. 1). P111 appears clearly normal.
なお、記憶部100に複数の学習済みモデルを記憶させ、使用者(屈折異常者)の視覚特性に応じて推論ステップで使用する学習済みモデルを適宜選択することができる。例えば、1台の画像生成装置1を家族など複数の人間で使用する場合、当該使う人間の視覚特性に応じて使用する学習済みモデルを選択することができる。
A plurality of trained models can be stored in the
[ぼかし部]
上述したように、ぼかし部300は、ぼけ再現数理モデルによりぼかし処理を施し、屈折異常者の眼から見えるぼけた画像を再現する。ここで、ぼけ再現数理モデルは、それぞれの屈折異常者の眼からの見え方に合わせて、それぞれ用意することができる。それぞれの屈折異常者の眼からの見え方とは、近視や遠視、乱視、老眼などの屈折異常の種類の違いや、屈折度数(例えば、弱度近視、中等度近視、強度近視、最強度近視)の違いである。
また、ぼかし部300は、上述した屈折異常だけでなく、色覚異常である者の目から見える画像も再現することができる。例えば、ぼかし部300は、色覚劣化モデルを用いることで、画像に対して色覚補償処理を行うことができる。
つまり、ぼかし部300は、屈折異常や色覚異常などを始めとする視覚的な劣化を再現することができる、視覚劣化モデルである。
[Blur part]
As described above, the
In addition, the
In other words, the blurring
ぼけ再現数理モデルは、そのモデル構造やパラメータに、ある光学系を通して点を見たときに、どのようなぼけ方をするかを表す点強度分布(PSF:Point Spread Function)を適用することで、それぞれの屈折異常者の眼からの見え方を再現することができる。眼の点強度分布は、瞳関数と瞳孔半径に基づいて求めることができる。 The blur reproduction mathematical model applies a point spread function (PSF), which indicates how a point is blurred when viewed through a certain optical system, to its model structure and parameters. It is possible to reproduce the appearance from the eyes of each refractive error person. The point intensity distribution of the eye can be determined based on the pupil function and pupil radius.
瞳孔半径は、人の眼の場合、1.5mm~3.0mmである。瞳関数は、人間の眼をレンズ(光学系)として考えたとき、理想状態(きちんと網膜上に焦点を合わせられる状態)から、どの程度歪んでいるかを表す波面収差から導くことができる。
波面収差は、ゼルニケ多項式と、それに係る係数の組み合わせで表すことができる。このゼルニケ多項式に係る係数を、それぞれの屈折異常者の眼の屈折度合を示す固有パラメータとすることで、それぞれの屈折異常者の眼の点強度分布を求めることができる。
The pupil radius is 1.5 mm to 3.0 mm for the human eye. The pupil function can be derived from the wavefront aberration, which indicates how much the human eye is distorted from the ideal state (the state in which the retina can be properly focused) when the human eye is considered as a lens (optical system).
Wavefront aberration can be represented by a combination of Zernike polynomials and associated coefficients. By using the coefficients related to the Zernike polynomials as unique parameters indicating the degree of refraction of each refractive error patient's eye, it is possible to obtain the point intensity distribution of each refractive error patient's eye.
そして、それぞれの屈折異常者の眼の点強度分布をぼけ再現数理モデルに適用することで、それぞれの屈折異常者の眼からの見え方を再現するぼけ再現数理モデルを生成することができる。つまり、ぼけ再現数理モデルは、使用者(屈折異常者)の視覚特性に応じて、画像生成装置1の中で生成することができる。運用上におけるぼけ再現数理モデルの生成方法は、例えば、眼科にある計測器から取得できるデータに基づく厳密な生成方法や、屈折異常者の視力等から想定される平均的なデータに基づく簡易な生成方法などがある。
このようにして生成される再現数理モデルは記憶部100に記憶され、学習ステップにおいて適宜利用することができるため、屈折異常者の様々な視覚特性に応じた知覚模擬画像を、より正確に出力することができる。
Then, by applying the point intensity distribution of each refractive error person's eye to the blur reproduction mathematical model, it is possible to generate a blur reproduction mathematical model that reproduces the appearance from the eyes of each refractive error person. That is, the blur reproduction mathematical model can be generated in the
The reproduction mathematical model generated in this way is stored in the
[画像生成システム]
ここまで画像生成装置1について説明したきたが、次に、画像生成システムについて説明する。図11は、本発明の実施の形態に係る画像生成システムを示す概略構成図である。画像生成システム10は、画像生成装置1と、画像生成装置1と接続される端末Tと、を含む。
[Image generation system]
The
画像生成装置1と端末Tは、ネットワーク網Nを介して接続され、相互に通信可能である。ネットワーク網Nは、WAN(Wide Area Network)やLAN(Local Area Network)などのネットワーク回線であり、画像生成装置1と端末Tは、有線通信またはWi-Fi(登録商標)などの無線通信で、相互に通信可能である。
The
画像生成システム10において、画像生成装置1は、例えば、クラウドサーバやオンプレミスサーバとして構成することができる。
また、端末Tは、画像生成システム10の利用者(例えば、屈折異常者)が所有する端末である。端末Tは、例えば、パソコンやスマートフォンなどであり、静止画像や動画像などの入力画像を画像生成装置1に送信したり、画像生成装置1から知覚画像を受信したりする機能(通信機能)を有するものである。パソコンは、デスクトップパソコンやノートパソコンなど種類を問わない。なお、端末Tは、上述したネットワーク網Nを介して画像生成装置1と通信することができる通信機能を有するものであれば、タブレットやTVなどでもよい。
In the
A terminal T is owned by a user of the image generation system 10 (for example, a person with refractive error). The terminal T is, for example, a personal computer, a smartphone, or the like, and has a function (communication function) of transmitting an input image such as a still image or a moving image to the
端末Tは、撮影部(図示せず)や表示部(図示せず)を含む。撮像部は、画像生成装置1に送信する静止画像や動画像などを撮像する機能を有するものであり、例えば、スマートフォンのカメラなどである。つまり、端末Tは、撮像部により、静止画像や動画像などの入力画像を取得することができる。また、入力画像となる静止画像や動画像などは、インターネット網Nを介して外部から取得したものでもよいし、USBメモリやSDカードなどの記憶媒体を介して端末Tに保存されたものでもよい。一方、表示部は、画像生成装置1により出力された知覚画像を受信し、当該知覚画像を表示する機能を有するものであり、例えば、パソコンやスマートフォン、TVなどのディスプレイである。
The terminal T includes an imaging unit (not shown) and a display unit (not shown). The imaging unit has a function of capturing a still image, a moving image, or the like to be transmitted to the
以下、画像生成システム10の利用者は屈折異常者で、端末Tは当該屈折異常者が所有するスマートフォンとして、画像生成システム10の動作の一例を説明する。ここで、端末Tには、利用者が過去に旅行へ行った際に端末Tの撮影部により撮影した写真(静止画像)やムービー(動画像)が保存されているとする。また、画像生成装置1の記憶部100には、今回の利用者である屈折異常者の視覚特性に応じて学習された学習済みモデルが記憶されている。
Hereinafter, an example of the operation of the
利用者は、端末Tに保存されている写真やムービーの画像を、ネットワーク網Nを介して画像生成装置1へと送信する。そして、画像生成装置1の変換部200は、受信した画像を、記憶部100に記憶されてる学習済みモデルを用いて、今回の利用者である屈折異常者の眼から正常に知覚可能な知覚画像を出力する。出力された当該知覚画像は、ネットワーク網Nを介して端末Tへと送信される。画像生成装置1から送信された知覚画像を受信した端末Tは、表示部により、当該知覚画像を表示させる。
The user transmits pictures and movie images stored in the terminal T to the
このように、端末Tには、今回の利用者である屈折異常者の眼からはっきりと正常に見える知覚画像が表示されるため、眼鏡やコンタクトレンズなどの医療機器を装着していなくても、利用者ははっきりと正常に端末Tに保存されている写真やムービーを閲覧することができる。 In this way, the terminal T displays a perceptual image that can be seen clearly and normally from the eyes of the person with refractive error who is the current user. The user can clearly and normally browse the photos and movies stored in the terminal T.
また、この場合、入力画像を知覚画像として出力する処理は画像生成装置1で行われるため、端末Tには、メモリやディスク容量、プロセッサ(例えば、GPU(Graphics Processing Unit))など、ハードウェアの高い性能要件は求められない。つまり、この場合、利用者が所有する端末Tは表示部などを含んでいるものであればよいため、利用者にとっての利便性や汎用性が向上する。
Further, in this case, since the processing of outputting the input image as the perceived image is performed by the
一方、学習済みモデルを端末Tに保存し、かつ変換部200を端末Tに設け、端末Tで入力画像を知覚画像として出力する処理を行うようにしてもよい。この場合、ネットワーク網Nを介して画像生成装置1との通信を行わずとも、知覚画像を出力して表示部により表示することができる。よって、利用者は、オフライン環境や、ネットワーク網Nに障害が発生した場合でも画像生成システム10を利用することができ、利便性が向上する。
On the other hand, the trained model may be stored in the terminal T, the
また、画像生成装置1においても、学習済みモデルを生成する装置と、生成された学習済みモデルが保存され、かつ変換部200が設けられ、入力画像を知覚画像として出力する装置と分けてもよい。つまり、変換部200の機能を切り分けて、その用途に応じて別々のハードウェアに持たせることもできる。上述では、例えば、端末Tに、変換部200から切り分けた、入力画像を知覚画像として出力する機能を有する変換部を設け、処理を行うことを示している。すなわち、当該変換部は、更新部400により生成された学習済みニューラルネットワークを用いて、入力画像に画像処理を施して屈折異常者の眼から正常に知覚可能な知覚画像を出力する知覚画像生成部としての機能を有するものである。そして、その入力画像を知覚画像として出力する装置は、上述したように端末Tでもよく、別のハードウェアであってもよい。
さらに、上記では例として、学習済みモデルを生成する装置(ハードウェア)と、生成された学習済みモデルが保存され、入力画像を知覚画像として出力する装置(ハードウェア)で分けることができることについて述べたが、必要に応じて、ハードウェアをそれ以上に分けたり、変換部200以外の機能をそれぞれのハードウェアに分散させて持たせることもできる。
Also, the
Furthermore, as an example, the above describes that the device (hardware) that generates the trained model and the device (hardware) that stores the generated trained model and outputs the input image as a perceptual image can be separated. However, if necessary, the hardware can be divided into more units, or the functions other than the
なお、端末Tに保存される学習済みモデルは、画像生成装置1からネットワーク網Nを介してダウンロードしてもよい。例えば、端末Tをパソコンとし、当該パソコンは家族共通で使用されるものである場合、使用者(父、母、子)の視覚特性に応じて学習された学習済みモデルを、使用者に合わせて適宜ダウンロードするようにしてもよい。若しくは、使用者(父、母、子)の視覚特性に応じて学習された学習済みモデルを予め端末Tに保存しておき、使用者が端末Tを使うタイミングに応じて、使用する学習済みモデルを適宜選択できるようにしてもよい。
Note that the learned model stored in the terminal T may be downloaded from the
以上のように説明した画像生成システム10の動作はあくまで一例であり、画像生成システム10を構成するハードウェアの数やネットワーク網Nの形態などは、本発明の趣旨を逸脱しない限り、適宜変更可能である。また、入力画像は、例として挙げた写真(静止画像)やムービー(動画像)だけでなく、漫画や小説などの電子書籍や、Webページやストリーミング映像などであってもよい。
The operation of the
以下、実施例1,2として、本発明の画像生成装置および画像生成方法を用いて、画像生成を行った結果を示す。実施例1,2において、NNはSRCNNを採用した。ここで、生成された知覚画像をぼかし部300によりぼかし処理を施し(図1のフローF3)、屈折異常者の眼から見える画像を再現して、知覚画像が屈折異常者の眼からはっきりと正常に見えることを確認した。 Hereinafter, as Examples 1 and 2, results of image generation using the image generation apparatus and the image generation method of the present invention are shown. In Examples 1 and 2, SRCNN was adopted as NN. Here, the generated perceptual image is subjected to blurring processing by the blurring unit 300 (flow F3 in FIG. 1) to reproduce the image seen by the eyes of the person with refractive error, so that the perceived image is clearly normal to the eyes of the person with refractive error. confirmed that it can be seen
(実施例1)
実施例1において、教師画像(教師画像データセット)は、画素数が200×200で計4996枚の自然画像データセットを採用した(図5(A)参照)。
(Example 1)
In Example 1, a natural image data set of 200×200 pixels and a total of 4996 natural images was used as the teacher image (teacher image data set) (see FIG. 5A).
また、学習ステップでは、当該自然画像データセットを訓練(Train)用データセット:3996枚と評価(Validation)用データセット:1000枚にランダムに分け、訓練用データセットを1通り学習させる(1エポック)ごとに検証用データセットを用いて損失値を算出した。損失関数は平均二乗誤差とし、1エポックごとに算出された損失値が15回連続で改善されなければ収束したと判断し、学習を終了した。 In the learning step, the natural image data set is randomly divided into a training data set (Train): 3996 images and an evaluation data set (Validation): 1000 images, and one training data set is learned (one epoch ), the loss value was calculated using the verification data set. The loss function was the mean squared error, and if the loss value calculated for each epoch did not improve 15 times in succession, it was determined that the learning had converged, and the learning was terminated.
図6は、学習ステップにおける損失値の推移を示すグラフである。図6を参照すると、訓練用データセットも検証用データセットも、エポック数が400を超えた辺りで損失値が0.0025付近まで落ちている。そして、損失値が0.0025付近で、本実施例で設定された所定の条件(15回連続で改善されない)が満たされ、学習が終了している。 FIG. 6 is a graph showing changes in loss values in the learning step. Referring to FIG. 6, the loss value drops to around 0.0025 when the number of epochs exceeds 400 for both the training data set and the validation data set. When the loss value is around 0.0025, the predetermined condition set in this embodiment (no improvement for 15 times in a row) is satisfied, and learning is completed.
図7は、実施例1の結果を示す説明図であり、上記学習ステップにより生成された学習済みモデルを用いて出力された知覚画像等である。入力画像は、動物(シマウマ)が写っている自然画像とした。
ここで、知覚模擬画像P302は、屈折異常者の眼から見えるぼけた画像を再現するために、入力画像P301に対してぼかし部300のぼけ再現数理モデルによるぼかし処理を施したものである。また、知覚模擬画像P312は、屈折異常者の眼から見えるぼけた画像を再現するために、知覚画像P311に対してぼかし部300のぼけ再現数理モデルによるぼかし処理を施したものである。
FIG. 7 is an explanatory diagram showing the results of Example 1, and is a perceptual image and the like output using the trained model generated by the learning step. The input image was a natural image containing an animal (zebra).
Here, the simulated sensory image P302 is obtained by subjecting the input image P301 to blurring processing using the blur reproduction mathematical model of the
このように、入力画像P301を屈折異常者が見ると、知覚模擬画像P302のようにぼけて見える。しかし、推論ステップにおいて生成された知覚画像P311を屈折異常者が見ると、知覚模擬画像P312のようにはっきりと正常に見える。 In this way, when the person with refractive error sees the input image P301, it appears blurred like the sensory simulated image P302. However, when the perceptual image P311 generated in the inference step is viewed by a refractive error person, it appears as clearly normal as the perceptual simulated image P312.
分かりやすいように、知覚模擬画像P302と、屈折異常者の眼からはっきりと正常に見える知覚模擬画像P312の一部を拡大し、比較する(図8参照)。これからも、知覚模擬画像P312は、知覚模擬画像P302と比べるとぼけが抑制されており、入力画像P301のようにはっきりと正常に見えることが分かる。 For easy understanding, a part of the perceptual simulation image P302 and the perceptual simulation image P312, which is clearly visible to the eyes of the person with refractive error, is enlarged and compared (see FIG. 8). From this, it can be seen that the perceptual simulated image P312 is more suppressed in blurring than the perceptual simulated image P302, and looks clearly normal like the input image P301.
(実施例2)
また、自然画像データセット(図5(A)参照)および英文画像データセット(図5(B)参照)をそれぞれ用いて学習させ、学習済みモデルをそれぞれ生成した。使用した自然画像データセットの条件は、実施例1と同様である。一方、英文画像データセットは、画素数が250×250で計3000枚(訓練:2400枚、評価:600枚)の英文画像データセットを用いた。
(Example 2)
Also, the natural image data set (see FIG. 5A) and the English image data set (see FIG. 5B) were used for learning to generate trained models. The conditions of the natural image data set used are the same as in the first embodiment. On the other hand, an English image data set of 250×250 pixels and a total of 3000 images (training: 2400 images, evaluation: 600 images) was used.
そして、実施例2として、それぞれの学習済みモデルを利用して、アルファベットが写っている英文画像の画像補正を行った。図9,10は、実施例2の結果を示す説明図であり、当該それぞれの学習済みモデルを用いて、上段の(1)および下段の(2)の2種類の画像を入力画像として出力された知覚画像等である。図9は、自然画像データセットで学習させた学習済みモデルを採用した場合、図10は、英文画像データセットで学習させた学習済みモデルを採用した場合の結果である。 Then, as Example 2, each trained model was used to perform image correction of an English image including alphabets. 9 and 10 are explanatory diagrams showing the results of Example 2. Using the respective trained models, two types of images (1) in the upper row and (2) in the lower row are output as input images. perceptual images, etc. FIG. 9 shows the results when a trained model trained on a natural image data set is used, and FIG. 10 shows the results when a trained model trained on an English language image data set is used.
図9の知覚画像と図10の知覚画像を比較しても、ほぼ差はない。つまり、自然画像データセットを教師画像として学習させた学習済みモデルを用いて、英文画像の画像補正を行った場合でも、十分な視認性が確保された知覚画像を出力できたことが分かる。 Comparing the perceived image in FIG. 9 and the perceived image in FIG. 10, there is almost no difference. In other words, it can be seen that a perceptual image with sufficient visibility could be output even when image correction was performed on an English image using a trained model that was trained using a natural image dataset as a teacher image.
本発明は、屈折異常者のそれぞれの視覚特性に応じて補正され、裸眼でもはっきりと正常に見える知覚画像を生成する画像生成方法などであり、本発明により補正された静止画像や動画像、文字画像などをパソコンやスマートフォンなどの画面に表示させて利用することができるため、産業上有用である。 The present invention is an image generation method for generating a perceptual image that is corrected according to the visual characteristics of each person with refractive error and that can be seen clearly and normally even with the naked eye. It is industrially useful because images can be displayed on the screens of personal computers, smartphones, and the like.
1 画像生成装置
10 画像生成システム
100 記憶部
200 変換部
300 ぼかし部
400 更新部
P101,P301 入力画像
P102,P103,P302,P312 知覚模擬画像
P111,P311 補正画像(知覚画像)
P201,P202,P211,P212 画像
F1~F3 フロー
1
P201, P202, P211, P212 Image F1-F3 Flow
Claims (11)
ぼけ再現数理モデルを用いて、前記入力画像にさらに画像処理を施して、屈折異常者の視覚特性に応じたぼかし処理が施された知覚模擬画像を出力すること、
前記入力画像と前記知覚模擬画像との比較により、前記ニューラルネットワークのパラメータを更新すること、を含む学習ステップと、
パラメータが更新された後のニューラルネットワークを用いて、入力画像に画像処理を施して前記屈折異常者の眼から正常に知覚可能な知覚画像を出力する推論ステップと、
を含む画像生成方法。 Applying image processing to the input image using a neural network;
further subjecting the input image to image processing using a blur reproduction mathematical model, and outputting a sensory simulated image subjected to blurring processing according to the visual characteristics of a person with refractive error;
a learning step comprising updating parameters of the neural network by comparing the input image and the sensory simulated image;
an inference step of performing image processing on the input image using the neural network whose parameters have been updated and outputting a perceptual image that is normally perceptible from the eyes of the person with refractive error;
Image generation method including.
前記誤差は、前記入力画像と前記知覚模擬画像の画素値に基づく損失関数により求められるものであり、前記損失関数により求められた誤差が所定の条件を満たすまで前記学習ステップを繰り返す請求項1または2に記載の画像生成方法。 The learning step updates the parameters of the neural network so that an error between the input image and the sensory simulated image is minimized;
2. The error is determined by a loss function based on pixel values of the input image and the sensory simulated image, and the learning step is repeated until the error determined by the loss function satisfies a predetermined condition. 2. The image generating method according to 2.
ぼけ再現数理モデルを用いて、前記入力画像にさらに画像処理を施して、屈折異常者の視覚特性に応じたぼかし処理が施された知覚模擬画像を出力すること、
前記入力画像と前記知覚模擬画像との比較により、前記ニューラルネットワークのパラメータを更新すること、
を含む画像生成方法により生成された、学習済みのニューラルネットワークモデル。 Applying image processing to the input image using a neural network;
further subjecting the input image to image processing using a blur reproduction mathematical model, and outputting a sensory simulated image subjected to blurring processing according to the visual characteristics of a person with refractive error;
updating parameters of the neural network by comparing the input image and the sensory simulated image;
A trained neural network model generated by an image generation method including
ぼけ再現数理モデルを用いて、前記変換部により画像処理が施された入力画像にさらに画像処理を施して、屈折異常者の視覚特性に応じたぼかし処理が施された知覚模擬画像を出力するぼかし部と、
前記入力画像と前記知覚模擬画像との比較により、前記ニューラルネットワークのパラメータを更新し、学習済みのニューラルネットワークを生成する更新部と、
を含む画像生成装置。 A conversion unit that performs image processing on an input image using a neural network;
Blur for further performing image processing on the input image that has undergone image processing by the conversion unit using a blur reproduction mathematical model, and outputting a sensory simulated image that has been subjected to blur processing according to the visual characteristics of a person with refractive error. Department and
an updating unit that updates parameters of the neural network by comparing the input image and the sensory simulated image to generate a trained neural network;
an image generating device comprising:
ぼけ再現数理モデルを用いて、前記変換部により画像処理が施された入力画像にさらに画像処理を施して、屈折異常者の視覚特性に応じたぼかし処理が施された知覚模擬画像を出力するぼかし部と、
前記入力画像と前記知覚模擬画像との比較により、前記ニューラルネットワークのパラメータを更新し、学習済みのニューラルネットワークを生成する更新部と、を含む画像生成装置としてコンピュータを機能させる画像生成プログラム。 A conversion unit that performs image processing on an input image using a neural network;
Blur for further performing image processing on the input image that has undergone image processing by the conversion unit using a blur reproduction mathematical model, and outputting a sensory simulated image that has been subjected to blur processing according to the visual characteristics of a person with refractive error. Department and
An image generation program that causes a computer to function as an image generation device, including an updating unit that updates parameters of the neural network by comparing the input image and the sensory simulated image to generate a trained neural network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021014469A JP2022117780A (en) | 2021-02-01 | 2021-02-01 | Image generation method and learned neural network model generated by image generation method thereof, image generator, image generation system, and image generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021014469A JP2022117780A (en) | 2021-02-01 | 2021-02-01 | Image generation method and learned neural network model generated by image generation method thereof, image generator, image generation system, and image generation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022117780A true JP2022117780A (en) | 2022-08-12 |
Family
ID=82750458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021014469A Pending JP2022117780A (en) | 2021-02-01 | 2021-02-01 | Image generation method and learned neural network model generated by image generation method thereof, image generator, image generation system, and image generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022117780A (en) |
-
2021
- 2021-02-01 JP JP2021014469A patent/JP2022117780A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9852496B2 (en) | Systems and methods for rendering a display to compensate for a viewer's visual impairment | |
CA3011257A1 (en) | Language element vision augmentation methods and devices | |
US20110157180A1 (en) | Virtual vision correction for video display | |
EP2842479B1 (en) | Means and method for demonstrating the effects of low cylinder astigmatism correction | |
US11381715B2 (en) | Computer method and apparatus making screens safe for those with photosensitivity | |
US9659351B2 (en) | Displaying personalized imagery for improving visual acuity | |
JP5607473B2 (en) | Diopter correction device | |
Montalto et al. | A total variation approach for customizing imagery to improve visual acuity | |
Kim et al. | Vision-correcting holographic display: evaluation of aberration correcting hologram | |
Gallagher et al. | Stimulus uncertainty predicts serial dependence in orientation judgements | |
JP4677647B2 (en) | Image processing apparatus, computer, and image forming apparatus | |
JP2022117780A (en) | Image generation method and learned neural network model generated by image generation method thereof, image generator, image generation system, and image generation program | |
CN112070657A (en) | Image processing method, device, system, equipment and computer storage medium | |
US10895749B2 (en) | Electronic glasses and method operating them | |
Güzel et al. | ChromaCorrect: prescription correction in virtual reality headsets through perceptual guidance | |
Alonso, Jr et al. | Image pre-compensation to facilitate computer access for users with refractive errors | |
Tanaka et al. | Image correction for improving visual acuity using zernike-based vision simulation | |
Westerink | Perceived sharpness in static and moving images | |
US20170095150A1 (en) | Method of detecting constriction of pupils, apparatus, and storage medium | |
Alonso Jr et al. | A multi-domain approach for enhancing text display for users with visual aberrations | |
Huang et al. | Vision correction for computer users based on image pre-compensation with changing pupil size | |
Huang et al. | Contrast improvement in pre-compensation of ocular aberrations for computer users | |
Huang et al. | Personalised and dynamic image precompensation for computer users with ocular aberrations | |
EP4177880A1 (en) | Disability-oriented font generator | |
Dorado | Customizing imagery to improve visual acuity |