JP7096020B2 - Mobile terminal and control method of mobile terminal - Google Patents

Mobile terminal and control method of mobile terminal Download PDF

Info

Publication number
JP7096020B2
JP7096020B2 JP2018049961A JP2018049961A JP7096020B2 JP 7096020 B2 JP7096020 B2 JP 7096020B2 JP 2018049961 A JP2018049961 A JP 2018049961A JP 2018049961 A JP2018049961 A JP 2018049961A JP 7096020 B2 JP7096020 B2 JP 7096020B2
Authority
JP
Japan
Prior art keywords
image
unit
detection unit
eye portion
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018049961A
Other languages
Japanese (ja)
Other versions
JP2019155011A (en
Inventor
誠 藤野
英一 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2018049961A priority Critical patent/JP7096020B2/en
Publication of JP2019155011A publication Critical patent/JP2019155011A/en
Priority to JP2022028126A priority patent/JP7214908B2/en
Application granted granted Critical
Publication of JP7096020B2 publication Critical patent/JP7096020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、携帯端末及び携帯端末の制御方法に関する。 The present invention relates to a mobile terminal and a method for controlling a mobile terminal.

近年、VDT(Visual Display Terminal Syndrome)作業、スマートフォン等の長時間の使用、及びコンタクトレンズの使用によるドライアイの患者が増えてきている。人間の涙液層はその表面側から裏面側に向かって油層(脂質層ともいう)、水層、及びムチン質等により構成されている。表面の油層は、瞼裏面のマイボーム腺から分泌され、涙液層の表面を覆うことにより涙液の蒸発を防いでいる。また、水層は、涙腺から分泌され、角膜表面を潤した後、涙点から排出される。そして、ドライアイは、マイボーム腺の減少により分泌される油分が減少して涙液が乾燥し易くなったり、涙腺から分泌される涙液層(水層)が減少したりすることで発生する。このため、ドライアイの診断のためには、角膜表面上の涙液層の厚みの経時変化(涙液層の破壊の状態など)を観察する必要がある。 In recent years, the number of patients with dry eye due to VDT (Visual Display Terminal Syndrome) work, long-term use of smartphones and the like, and use of contact lenses is increasing. The human tear film is composed of an oil layer (also referred to as a lipid layer), an aqueous layer, mucinous substance, and the like from the front surface side to the back surface side. The oil layer on the surface is secreted from the meibomian glands on the back of the eyelid and covers the surface of the tear layer to prevent evaporation of tears. The water layer is also secreted from the lacrimal glands, moisturizes the corneal surface, and then is excreted from the punctum. Dry eye occurs when the oil content secreted by the decrease in the meibomian glands decreases and the tear fluid becomes easier to dry, or the tear film layer (water layer) secreted from the lacrimal glands decreases. Therefore, in order to diagnose dry eye, it is necessary to observe changes in the thickness of the tear film on the surface of the cornea over time (state of destruction of the tear film, etc.).

一般に涙液の分泌量を測定する方法としては、被検眼から分泌する涙液を露紙にしみこませて涙液量を測定するシルマーテスト、及び被検眼の角膜表面上にフルオロセイン染色剤を点眼して涙液層の状態を観察する方法などが知られているが、いずれもユーザにとっては負担となる。また、赤外光で瞼裏のマイボーム腺を観察する方法も知られているが、この方法では涙液を直接観察することはできない。 Generally, as a method for measuring the amount of tears secreted, Schirmer's test in which tears secreted from the eye to be inspected are impregnated into an exposed paper to measure the amount of tears, and a fluorosane stain is instilled on the corneal surface of the eye to be inspected. There are known methods for observing the state of the tear film, but all of them are burdensome for the user. In addition, a method of observing the meibomian glands on the back of the eyelid with infrared light is also known, but it is not possible to directly observe tears by this method.

そこで、特許文献1及び特許文献2には、被検眼の前眼部(角膜表面)を白色光で照明する照明部と、前眼部の撮影を行う撮影部と、撮影部により撮影された撮影画像を解析して被検眼の涙液層の状態(油層の厚み等)を検出する検出部と、を備える眼科装置が開示されている。この眼科装置によれば、非接触且つ非侵襲でユーザの涙液層の状態を検査することができる。 Therefore, in Patent Document 1 and Patent Document 2, an illumination unit that illuminates the anterior eye portion (corneal surface) of the eye to be inspected with white light, an imaging unit that photographs the anterior eye portion, and an imaging unit photographed by the photographing unit. Disclosed is an ophthalmic apparatus including a detection unit that analyzes an image and detects the state of the tear film of the eye to be inspected (thickness of the oil layer, etc.). According to this ophthalmologic device, the condition of the tear layer of the user can be inspected in a non-contact and non-invasive manner.

特表2010-530282号公報Special Table 2010-530282 Gazette 特開2017-136212号公報Japanese Unexamined Patent Publication No. 2017-136212

ところで、上記特許文献1及び特許文献2に記載の眼科装置では、ユーザの顔を固定する装置、被検眼に対して照明部及び撮影部をアライメントする機構、及び撮影部の焦点調整機構などが必要になるため、装置が大掛かりになってしまう。このため、ユーザは、ドライアイの検査を行う場合、眼科に赴いて専用の眼科装置で検査を受ける必要があった。 By the way, the ophthalmic apparatus described in Patent Document 1 and Patent Document 2 requires a device for fixing the user's face, a mechanism for aligning the illumination unit and the imaging unit with respect to the eye to be inspected, a focus adjusting mechanism for the imaging unit, and the like. Therefore, the device becomes large-scale. For this reason, when performing a dry eye examination, the user has to go to an ophthalmologist and undergo an examination with a dedicated ophthalmology device.

本発明はこのような事情に鑑みてなされたものであり、被検眼の涙液層を簡単に検査することができる携帯端末及び携帯端末の制御方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a mobile terminal and a control method for the mobile terminal, which can easily inspect the tear film of the eye to be inspected.

本発明の目的を達成するための携帯端末は、筐体と、筐体の一面側に設けられ、予め定めたパターン光を発光して、パターン光を被検眼の前眼部に投影する発光部と、筐体の一面側に設けられ、発光部からのパターン光が投影されている前眼部を撮影する撮影部と、撮影部により撮影された撮影画像から、パターン光の反射像を検出する像検出部と、像検出部により検出された反射像を解析して、前眼部の角膜表面を覆う涙液層の状態を検出する状態検出部と、を備える。 The portable terminal for achieving the object of the present invention is provided on the housing and one side of the housing, emits a predetermined pattern light, and projects the pattern light onto the anterior eye portion of the eye to be inspected. And, the reflected image of the pattern light is detected from the photographing unit provided on one side of the housing and photographing the front eye portion on which the pattern light from the light emitting unit is projected, and the photographed image photographed by the photographing unit. It includes an image detection unit and a state detection unit that analyzes the reflected image detected by the image detection unit and detects the state of the tear film layer covering the corneal surface of the anterior eye portion.

この携帯端末によれば、従来の眼科装置のような大掛かりな機構を要することなく、前眼部へのパターン光の投影と、前眼部の撮影と、撮影画像の解析(反射像の検出及び涙液層の状態検出)とを実行することができる。 According to this portable terminal, pattern light is projected onto the anterior eye portion, the anterior eye portion is photographed, and the captured image is analyzed (reflection image detection and reflection image detection) without requiring a large-scale mechanism as in a conventional ophthalmic device. The state of the tear film) can be performed.

本発明の他の態様に係る携帯端末において、像検出部が撮影画像から前眼部に対応する前眼部像を検出し、像検出部により検出された前眼部像に基づき、被検眼に対する撮影部のアライメント状態を検出するアライメント検出部と、アライメント検出部の検出結果に基づき、被検眼と撮影部との相対的な位置合わせの指標となるアライメント指示を出力する指示部と、を備える。これにより、ユーザは、アライメント指示に従って、被検眼に対して撮影部を手動アライメントさせることができる。 In the portable terminal according to another aspect of the present invention, the image detection unit detects the anterior eye portion image corresponding to the anterior eye portion from the captured image, and based on the anterior eye portion image detected by the image detection unit, the subject to the eye is examined. It includes an alignment detection unit that detects the alignment state of the imaging unit, and an instruction unit that outputs an alignment instruction that is an index of relative alignment between the eye to be inspected and the imaging unit based on the detection result of the alignment detection unit. As a result, the user can manually align the imaging unit with respect to the eye to be inspected according to the alignment instruction.

本発明の他の態様に係る携帯端末において、発光部は、パターン光の発光態様を調整可能であり、像検出部が、撮影画像から反射像と前眼部に対応する前眼部像とを検出し、像検出部の検出結果に基づき、前眼部に対するパターン光の投影状態を検出する投影状態検出部と、投影状態検出部の検出結果に基づき、発光部の発光態様を調整して、パターン光の投影状態を特定の状態に維持させる投影制御部と、を備える。これにより、ユーザと携帯端末との相対位置関係が変化した場合でも、発光部から前眼部に投影されるパターン光の投影状態が特定の状態に維持されるので、涙液層の各種状態の経時変化を正確に検出することできる。 In the portable terminal according to another aspect of the present invention, the light emitting unit can adjust the light emitting mode of the pattern light, and the image detection unit obtains a reflected image from the captured image and an anterior eye portion image corresponding to the anterior eye portion. Based on the detection result of the image detection unit, the projection state detection unit that detects the projection state of the pattern light on the anterior eye portion and the light emission mode of the light emitting unit are adjusted based on the detection result of the projection state detection unit. It is provided with a projection control unit that maintains the projection state of the pattern light in a specific state. As a result, even if the relative positional relationship between the user and the mobile terminal changes, the projected state of the pattern light projected from the light emitting portion to the anterior eye portion is maintained in a specific state, so that various states of the tear film can be maintained. It is possible to accurately detect changes over time.

本発明の他の態様に係る携帯端末において、投影状態検出部が、投影状態として、少なくとも前眼部に投影されるパターン光の投影範囲を検出し、投影制御部が、発光態様の調整として、少なくともパターン光の発光範囲の調整を行う。これにより、涙液層の各種状態の経時変化を正確に検出することできる。 In the portable terminal according to another aspect of the present invention, the projection state detection unit detects at least the projection range of the pattern light projected on the anterior eye portion as the projection state, and the projection control unit adjusts the light emission mode. At least adjust the emission range of the pattern light. This makes it possible to accurately detect changes over time in various states of the tear film.

本発明の他の態様に係る携帯端末において、発光部がパターン光に対応するパターンを表示する表示装置であり、像検出部により検出された反射像の照度分布を検出する照度分布検出部と、照度分布検出部の検出結果に基づき、表示装置によるパターンの表示を制御して、照度分布を均一にさせる表示制御部と、を備える。これにより、反射像の照度分布を均一化することができるので、反射像から涙液層の状態を正確に検出することができる。 In the mobile terminal according to another aspect of the present invention, the light emitting unit is a display device that displays a pattern corresponding to the pattern light, and the illuminance distribution detection unit that detects the illuminance distribution of the reflected image detected by the image detection unit. A display control unit that controls the display of a pattern by a display device based on the detection result of the illuminance distribution detection unit to make the illuminance distribution uniform is provided. As a result, the illuminance distribution of the reflected image can be made uniform, so that the state of the tear film can be accurately detected from the reflected image.

本発明の他の態様に係る携帯端末において、発光部が、パターン光に対応するパターンと、固視標とを表示する表示装置である。これにより、涙液層の検査中、ユーザに固視標を固視させることができる。 In the mobile terminal according to another aspect of the present invention, the light emitting unit is a display device that displays a pattern corresponding to the pattern light and a fixative. This allows the user to fix the fixative during the examination of the tear film.

本発明の他の態様に係る携帯端末において、像検出部が撮影画像から前眼部に対応する前眼部像を検出し、像検出部により検出された前眼部像に基づき、被検眼に対する撮影部のアライメント状態を検出するアライメント検出部と、アライメント検出部の検出結果に基づき、表示装置を制御して固視標の表示態様を変化させる表示制御部と、を備える。これにより、ユーザがアライメント状態を容易に把握することができる。 In the portable terminal according to another aspect of the present invention, the image detection unit detects an anterior eye portion image corresponding to the anterior eye portion from the captured image, and the image of the anterior eye portion detected by the image detection unit is used for the eye to be inspected. It includes an alignment detection unit that detects the alignment state of the photographing unit, and a display control unit that controls a display device to change the display mode of the fixative based on the detection result of the alignment detection unit. This allows the user to easily grasp the alignment state.

本発明の他の態様に係る携帯端末において、発光部が、特定の偏光方向に偏光されているパターン光を前眼部に投影させる液晶ディスプレイであり、撮影部が、特定の偏光方向の光を透過させる偏光板を通して、前眼部を撮影する。これにより、瞼及び虹彩等でのパターン光の反射光の一部を偏光板により減光させることができるので、この反射光の散乱成分に起因するノイズの発生が軽減される。 In a portable terminal according to another aspect of the present invention, the light emitting unit is a liquid crystal display that projects patterned light polarized in a specific polarization direction onto the anterior segment of the eye, and the photographing unit emits light in a specific polarization direction. The anterior segment of the eye is photographed through a transparent polarizing plate. As a result, a part of the reflected light of the pattern light in the eyelids, the iris and the like can be dimmed by the polarizing plate, so that the generation of noise due to the scattered component of the reflected light is reduced.

本発明の他の態様に係る携帯端末において、状態検出部が、反射像から角膜表面に発生する干渉像を検出し、干渉像に基づき、涙液層の状態として涙液層の厚みを検出する。 In the mobile terminal according to another aspect of the present invention, the state detection unit detects an interference image generated on the corneal surface from the reflection image, and detects the thickness of the tear film as the state of the tear film based on the interference image. ..

本発明の目的を達成するための携帯端末の制御方法は、筐体の一面側に設けられた発光部から予め定めたパターン光を発光して、パターン光を被検眼の前眼部に投影する投影ステップと、筐体の一面側に設けられた撮影部により、発光部からのパターン光が投影されている前眼部を撮影する撮影ステップと、撮影ステップで撮影された撮影画像から、パターン光の反射像を検出する像検出ステップと、像検出ステップで検出された反射像を解析して、前眼部の角膜表面を覆う涙液層の状態を検出する状態検出ステップと、を有する。 In the control method of the mobile terminal for achieving the object of the present invention, a predetermined pattern light is emitted from a light emitting portion provided on one surface side of the housing, and the pattern light is projected onto the anterior eye portion of the eye to be inspected. The pattern light is taken from the shooting step of shooting the front eye part where the pattern light from the light emitting part is projected by the projection step and the shooting unit provided on one side of the housing, and the shot image taken in the shooting step. It has an image detection step of detecting the reflected image of the light, and a state detecting step of analyzing the reflected image detected in the image detecting step to detect the state of the tear film covering the corneal surface of the anterior eye portion.

本発明は、被検眼の涙液層を簡単に検査することができる。 INDUSTRIAL APPLICABILITY The present invention can easily inspect the tear film of the eye to be inspected.

第1実施形態のスマートフォンの正面図である。It is a front view of the smartphone of 1st Embodiment. 第1実施形態のスマートフォンの一部の概略断面図である。It is a schematic sectional drawing of a part of the smartphone of 1st Embodiment. 撮影画像データの概略図である。It is a schematic diagram of the photographed image data. スマートフォンの姿勢変更を説明するための説明図である。It is explanatory drawing for demonstrating the posture change of a smartphone. スマートフォンの姿勢変更後の撮影により得られた撮影画像データ34の概略図である。It is a schematic diagram of the captured image data 34 obtained by photographing after changing the posture of the smartphone. 第1実施形態のスマートフォンの電気的構成を示すブロック図である。It is a block diagram which shows the electric structure of the smartphone of 1st Embodiment. 第1実施形態のスマートフォンによる被検眼の涙液層の検査の流れを示したフローチャートである。It is a flowchart which showed the flow of the examination of the tear film layer of the eye under test by the smartphone of 1st Embodiment. 第2実施形態のスマートフォンの電気的構成を示すブロック図である。It is a block diagram which shows the electric structure of the smartphone of 2nd Embodiment. 投影制御部によるパターンの表示態様の調整の第1例を説明するための説明図である。It is explanatory drawing for demonstrating the first example of the adjustment of the display mode of a pattern by a projection control unit. 投影制御部によるパターンの表示態様の調整の第2例を説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of the adjustment of the display mode of a pattern by a projection control unit. 投影制御部によるパターンの表示態様の調整の第3例を説明するための説明図である。It is explanatory drawing for demonstrating the 3rd example of the adjustment of the display mode of a pattern by a projection control unit. 第2実施形態のスマートフォンによる被検眼の涙液層の検査の流れを示したフローチャートである。It is a flowchart which showed the flow of the examination of the tear film layer of the eye under test by the smartphone of 2nd Embodiment. 表示パネルから前眼部に投影されるパターン光の照度分布を説明するための説明図である。It is explanatory drawing for demonstrating the illuminance distribution of the pattern light projected from the display panel to the anterior eye portion. 第3実施形態のスマートフォンの電気的構成を示すブロック図である。It is a block diagram which shows the electric structure of the smartphone of 3rd Embodiment. 第3実施形態のスマートフォンによる被検眼の涙液層の検査の流れを示したフローチャートである。It is a flowchart which showed the flow of the examination of the tear film layer of the eye under test by the smartphone of 3rd Embodiment. 第4実施形態のスマートフォンの正面図である。It is a front view of the smartphone of 4th Embodiment. 第5実施形態のスマートフォンの正面図である。It is a front view of the smartphone of 5th Embodiment. 各実施形態の制御部の変形例を示したブロック図である。It is a block diagram which showed the modification of the control part of each embodiment.

[第1実施形態のスマートフォンの構成]
図1は、本発明の携帯端末に相当する第1実施形態のスマートフォン10の正面図である。図2は、第1実施形態のスマートフォン10の一部の概略断面図である。このスマートフォン10は、被検者であるユーザの被検眼Eの前眼部Efの角膜表面を覆う涙液層を検査する機能を有する。
[Structure of smartphone of the first embodiment]
FIG. 1 is a front view of the smartphone 10 of the first embodiment corresponding to the mobile terminal of the present invention. FIG. 2 is a schematic cross-sectional view of a part of the smartphone 10 of the first embodiment. The smartphone 10 has a function of inspecting the tear film layer covering the corneal surface of the anterior eye portion Ef of the user to be inspected E, which is the subject.

図1及び図2に示すように、スマートフォン10は、平板状に形成されており且つユーザに把持される携帯型の筐体12を備える。この筐体12のユーザに対向する一面側には、表示入力部14と、スピーカ16と、マイクロホン18と、所謂インカメラであるカメラ部20と、が設けられている。また、筐体12の一面側とは反対面側には、図示は省略するが所謂アウトカメラが設けられている。 As shown in FIGS. 1 and 2, the smartphone 10 includes a portable housing 12 that is formed in a flat plate shape and is held by a user. A display input unit 14, a speaker 16, a microphone 18, and a so-called in-camera camera unit 20 are provided on one side of the housing 12 facing the user. Further, a so-called out-camera is provided on the side opposite to the one side of the housing 12, although not shown.

表示入力部14は、各種の画像(静止画像及び動画像)及び文字情報などを表示する。また、表示入力部14は、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネル構造を有する。この表示入力部14は、表示パネル22と、操作パネル24(図2では図示を省略)とにより構成されている。 The display input unit 14 displays various images (still images and moving images), character information, and the like. Further, the display input unit 14 has a so-called touch panel structure that detects a user operation for the displayed information. The display input unit 14 includes a display panel 22 and an operation panel 24 (not shown in FIG. 2).

表示パネル22は、本発明の発光部、指示部、及び表示装置に相当するものであり、液晶ディスプレイ(LCD:Liquid Crystal Display)及び有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)などの各種表示装置が用いられる。 The display panel 22 corresponds to the light emitting unit, the indicator unit, and the display device of the present invention, and various displays such as a liquid crystal display (LCD) and an organic EL display (OELD: Organic Electro-Luminescence Display). The device is used.

表示パネル22は、涙液層検査時において、表示面の少なくとも一部の領域に白色のパターン28を表示する。これにより、表示パネル22からパターン28に基づく白色のパターン光28Lが発光され、さらにこのパターン光28Lが前眼部Efに投影される。なお、図2中の符号R1は、表示パネル22から前眼部Efに投影されるパターン光28Lの投影範囲を指す。 The display panel 22 displays the white pattern 28 in at least a part of the display surface at the time of the tear film examination. As a result, the white pattern light 28L based on the pattern 28 is emitted from the display panel 22, and the pattern light 28L is further projected onto the front eye portion Ef. The reference numeral R1 in FIG. 2 refers to the projection range of the pattern light 28L projected from the display panel 22 onto the anterior eye portion Ef.

なお、表示パネル22内でのパターン28の表示位置は、後述のカメラ部20の光軸OAと被検眼Eの基準位置とが略一致している場合に、パターン光28Lが前眼部Efの角膜表面上の所定位置に投影されるように予め位置調整されている(図3参照)。また、パターン28(パターン光28L)の色、形状、及び大きさ等は特に限定はされない。 As for the display position of the pattern 28 in the display panel 22, the pattern light 28L is the front eye portion Ef when the optical axis OA of the camera unit 20 and the reference position of the eye to be inspected E, which will be described later, substantially coincide with each other. It is pre-adjusted so that it is projected onto a predetermined position on the surface of the cornea (see FIG. 3). Further, the color, shape, size, etc. of the pattern 28 (pattern light 28L) are not particularly limited.

操作パネル24は、光透過性を有しており、表示パネル22の表示面上に設けられている。この操作パネル24は、公知の検出方式によって、ユーザの指又は尖筆等により入力された各種の入力操作を受け付ける。そして、操作パネル24は、入力操作の検出信号を後述の制御部46(図6参照)へ出力する。なお、筐体12の一面側に、押しボタン式のスイッチ及び十字キー等の各種ハードウェアキーを設けてもよい。 The operation panel 24 has light transmission and is provided on the display surface of the display panel 22. The operation panel 24 receives various input operations input by a user's finger, a stylus, or the like by a known detection method. Then, the operation panel 24 outputs the detection signal of the input operation to the control unit 46 (see FIG. 6) described later. In addition, various hardware keys such as a push button type switch and a cross key may be provided on one side of the housing 12.

スピーカ16は、後述の制御部46(図6参照)の下、各種の音声出力を行う。このスピーカ16は、詳しくは後述するが、本発明の指示部としても機能する。マイクロホン18は、ユーザの音声の入力を受け付ける。 The speaker 16 outputs various sounds under the control unit 46 (see FIG. 6) described later. The speaker 16 also functions as an instruction unit of the present invention, which will be described in detail later. The microphone 18 accepts a user's voice input.

カメラ部20は、本発明の撮影部に相当するものであり、ユーザの顔を電子撮影する。本実施形態では、カメラ部20を、涙液層検査時におけるユーザの被検眼Eの前眼部Ef(角膜表面)の撮影に用いる。このカメラ部20は、フォーカスレンズ等を含むレンズ群30と、レンズ群30の各レンズを駆動する不図示のレンズ駆動機構と、不図示のシャッタ機構と、撮像素子32と、を備える。 The camera unit 20 corresponds to the photographing unit of the present invention, and electronically photographs the user's face. In the present embodiment, the camera unit 20 is used for photographing the anterior eye portion Ef (corneal surface) of the user's eye E to be inspected at the time of the tear film layer examination. The camera unit 20 includes a lens group 30 including a focus lens and the like, a lens drive mechanism (not shown) for driving each lens of the lens group 30, a shutter mechanism (not shown), and an image sensor 32.

レンズ群30は、光軸OAを有し、各種被写体の像光を撮像素子32の撮像面に結像させる。この際に、カメラ部20は公知のオートフォーカス機能を有している。このため、制御部46(図6参照)の下、不図示のレンズ駆動機構によりレンズ群30のフォーカスレンズを光軸OAに沿って移動させることで、カメラ部20の焦点調節が自動で行われる。このようにカメラ部20は、所謂オートフォーカス処理を行うことで、据置型の眼科装置と同様に焦点調整(光軸方向のアライメント)を行うことができる。なお、オートフォーカス処理については公知技術であるため、具体的な説明は省略する。 The lens group 30 has an optical axis OA, and images of various subjects are imaged on the image pickup surface of the image pickup element 32. At this time, the camera unit 20 has a known autofocus function. Therefore, the focus of the camera unit 20 is automatically adjusted by moving the focus lens of the lens group 30 along the optical axis OA by a lens drive mechanism (not shown) under the control unit 46 (see FIG. 6). .. In this way, the camera unit 20 can perform focus adjustment (alignment in the optical axis direction) in the same manner as the stationary ophthalmic apparatus by performing the so-called autofocus process. Since the autofocus process is a known technique, a specific description thereof will be omitted.

撮像素子32は、CMOS(Complementary Metal Oxide Semiconductor)型又はCCD(Charge-Coupled Device)型のカラー撮像装置(イメージセンサ)であり、レンズ群30を通して各種被写体の像光の撮像を行う。 The image sensor 32 is a CMOS (Complementary Metal Oxide Semiconductor) type or CCD (Charge-Coupled Device) type color image sensor (image sensor), and captures image light of various subjects through the lens group 30.

カメラ部20は、涙液層検査時に、表示パネル22によりパターン光28Lが投影されている前眼部Efの角膜表面の本撮影(連続撮影)を行って、前眼部Efの撮影画像データ34を出力する。なお、ここでいう本撮影とは、涙液層の状態検出に用いられる撮影画像データ34の撮影である。 At the time of the tear film examination, the camera unit 20 performs main imaging (continuous imaging) of the corneal surface of the anterior eye portion Ef on which the pattern light 28L is projected by the display panel 22, and the captured image data 34 of the anterior eye portion Ef. Is output. The main imaging referred to here is imaging of captured image data 34 used for detecting the state of the tear film.

また、カメラ部20は、本撮影の開始前に前眼部Efの予備撮影(連続撮影)を行って、前眼部Efの撮影画像データ34を出力する。この予備撮影で得られた撮影画像データ34は、被検眼Eに対する筐体12(スマートフォン10)のアライメント状態の検出と、本撮影開始前の被検眼Eの瞬き検出と、に用いられる。なお、ここでいうアライメント状態の検出とは、光軸OAに対して垂直な光軸垂直方向におけるアライメント状態、すなわち、光軸OAと被検眼Eの基準位置(瞳孔及び角膜頂点等)とのずれ量及びずれ方向の検出である。 Further, the camera unit 20 performs preliminary shooting (continuous shooting) of the front eye portion Ef before the start of the main shooting, and outputs the captured image data 34 of the front eye portion Ef. The captured image data 34 obtained in this preliminary imaging is used for detecting the alignment state of the housing 12 (smartphone 10) with respect to the eye to be inspected E and for detecting the blink of the eye to be inspected E before the start of the main imaging. The detection of the alignment state here means the alignment state in the direction perpendicular to the optical axis perpendicular to the optical axis OA, that is, the deviation between the optical axis OA and the reference position (pupil, corneal apex, etc.) of the eye to be inspected E. Detection of quantity and deviation direction.

なお、本実施形態では、カメラ部20による瞬き検出用の予備撮影と涙液層の状態検出用の本撮影とを区別して説明しているが、両者は一つの連続した撮影であってもよい。 In the present embodiment, the preliminary shooting for blink detection by the camera unit 20 and the main shooting for detecting the state of the tear film are described separately, but both may be one continuous shooting. ..

図3は、本撮影により得られた撮影画像データ34の概略図である。図3に示すように、撮影画像データ34には、前眼部Efに対応する前眼部像35と、前眼部Efの角膜表面で反射されたパターン光28Lの反射像36とが含まれている。そして、本実施形態のスマートフォン10は、撮影画像データ34から前眼部像35を検出した結果に基づき、被検眼Eに対するカメラ部20の上下左右方向(略光軸垂直方向)のアライメント状態の検出を行う。また、スマートフォン10は、撮影画像データ34から反射像36を検出して解析することで、前眼部Efの角膜表面上の投影範囲R1を覆う涙液層の状態を検出する。 FIG. 3 is a schematic view of the captured image data 34 obtained by the main imaging. As shown in FIG. 3, the captured image data 34 includes an anterior eye portion image 35 corresponding to the anterior eye portion Ef and a reflected image 36 of the pattern light 28L reflected on the corneal surface of the anterior eye portion Ef. ing. Then, the smartphone 10 of the present embodiment detects the alignment state of the camera unit 20 in the vertical and horizontal directions (substantially vertical direction of the optical axis) with respect to the eye E to be inspected, based on the result of detecting the anterior eye portion image 35 from the captured image data 34. I do. Further, the smartphone 10 detects and analyzes the reflected image 36 from the captured image data 34 to detect the state of the tear film layer covering the projection range R1 on the corneal surface of the anterior eye portion Ef.

図4は、本撮影時におけるスマートフォン10の姿勢変更を説明するための説明図である。図5は、スマートフォン10の姿勢変更後の本撮影により得られた撮影画像データ34の概略図である。 FIG. 4 is an explanatory diagram for explaining the posture change of the smartphone 10 at the time of the actual shooting. FIG. 5 is a schematic view of the captured image data 34 obtained by the main shooting after the posture of the smartphone 10 is changed.

図4に示すように、ユーザがスマートフォン10の姿勢を変更、例えば光軸OAの軸周り方向に回転させることで、パターン28も同方向に回転する。これにより、前眼部Efに投影されるパターン光28Lの投影位置及び形状を変化させることができる。そして、図5に示すように、姿勢変更後の撮影画像データ34から反射像36を検出して解析することで、前眼部Efの角膜表面の中で新たな投影範囲R1を覆う涙液層の状態が検出される。これにより、ユーザは、スマートフォン10の姿勢を変更することにより、前眼部Efの角膜表面上の所望の領域の涙液層の状態をスマートフォン10に検出させることができる。 As shown in FIG. 4, when the user changes the posture of the smartphone 10, for example, by rotating the smartphone 10 in the direction around the axis of the optical axis OA, the pattern 28 also rotates in the same direction. As a result, the projection position and shape of the pattern light 28L projected on the anterior eye portion Ef can be changed. Then, as shown in FIG. 5, by detecting and analyzing the reflected image 36 from the captured image data 34 after the posture change, the tear film layer covering the new projection range R1 in the corneal surface of the anterior eye portion Ef. The state of is detected. Thereby, the user can make the smartphone 10 detect the state of the tear film in a desired region on the corneal surface of the anterior eye portion Ef by changing the posture of the smartphone 10.

図6は、第1実施形態のスマートフォン10の電気的構成を示すブロック図である。なお、図6中では、図面の煩雑化を防止するため、スマートフォン10の各種機能に係る構成の中で、涙液層検査以外の機能に係る構成については適宜図示を省略している。 FIG. 6 is a block diagram showing an electrical configuration of the smartphone 10 of the first embodiment. In FIG. 6, in order to prevent the drawings from becoming complicated, the configurations related to the functions other than the tear film layer inspection are not shown as appropriate among the configurations related to the various functions of the smartphone 10.

図6に示すように、スマートフォン10は、既述の表示入力部14、スピーカ16、及びマイクロホン18の他に、モーションセンサ40と、通信部42と、記憶部44と、制御部46と、を備える。 As shown in FIG. 6, in addition to the display input unit 14, the speaker 16, and the microphone 18 described above, the smartphone 10 includes a motion sensor 40, a communication unit 42, a storage unit 44, and a control unit 46. Be prepared.

モーションセンサ40は、例えば3軸の加速度センサなどを備えており、スマートフォン10の物理的な動きを検出して、その検出結果を制御部46へ出力する。 The motion sensor 40 includes, for example, a three-axis acceleration sensor, detects the physical movement of the smartphone 10, and outputs the detection result to the control unit 46.

通信部42は、移動通信網に収容された基地局装置或いはルータ装置に対して無線通信(有線通信でも可)を行うものである。これにより、通信部42は、音声データ及び画像データ等の各種データの送受信を行う。 The communication unit 42 performs wireless communication (wired communication is also possible) with the base station device or router device housed in the mobile communication network. As a result, the communication unit 42 transmits / receives various data such as voice data and image data.

記憶部44には、プログラム48及び涙液層の検査結果(不図示)等が記憶される。プログラム48は、スマートフォン10で涙液層の検査を行うためのアプリケーションソフトウェアである。このプログラム48は、記憶部44に予めインストールされたものであってもよいし、或いはインターネット経由で取得されたものであってもよい。 The storage unit 44 stores the program 48, the test results of the tear film (not shown), and the like. Program 48 is application software for inspecting the tear film with the smartphone 10. This program 48 may be pre-installed in the storage unit 44, or may be acquired via the Internet.

制御部46は、例えばCPU(Central Processing Unit)又はFPGA(field-programmable gate array)等を含む各種の演算部及びメモリ等から構成された演算回路であり、スマートフォン10の各部を統括制御する。 The control unit 46 is a calculation circuit composed of various calculation units including a CPU (Central Processing Unit) or an FPGA (field-programmable gate array), a memory, and the like, and controls each part of the smartphone 10 in an integrated manner.

そして、制御部46は、操作パネル24に対してプログラム48の起動操作が入力された場合、記憶部44からプログラム48を読み出して実行することにより、スマートフォン10を被検眼Eの涙液層の検査装置として機能させる。この場合、制御部46は、スマートフォン10の各部を制御して、予備撮影及びアライメント状態の検出と、前眼部Efへのパターン光28Lの投影と、予備撮影及び被検眼Eの瞬き検出と、本撮影及び涙液層の状態検出と、を順番に実行させる。 Then, when the start operation of the program 48 is input to the operation panel 24, the control unit 46 reads the program 48 from the storage unit 44 and executes the program 48 to inspect the smartphone 10 for the tear film layer of the eye E to be inspected. Make it function as a device. In this case, the control unit 46 controls each part of the smartphone 10 to perform preliminary imaging and detection of the alignment state, projection of the pattern light 28L onto the anterior eye portion Ef, preliminary imaging and blink detection of the eye to be inspected E. The main imaging and the state detection of the tear film are performed in order.

制御部46は、プログラム48を実行することで、表示制御部50、音声制御部52、像取得部54、像検出部56、アライメント検出部58、指示決定部60、検査制御部62、及び状態検出部64として機能する。 By executing the program 48, the control unit 46 includes a display control unit 50, a voice control unit 52, an image acquisition unit 54, an image detection unit 56, an alignment detection unit 58, an instruction determination unit 60, an inspection control unit 62, and a state. It functions as a detection unit 64.

表示制御部50は、表示パネル22の画像表示を制御する。この表示制御部50は、涙液層検査時に、指示決定部60、検査制御部62、及び状態検出部64等から入力される各種指示又は各種情報に基づき、表示パネル22に各種の画像又は情報を表示させる。 The display control unit 50 controls the image display of the display panel 22. The display control unit 50 displays various images or information on the display panel 22 based on various instructions or various information input from the instruction determination unit 60, the inspection control unit 62, the state detection unit 64, etc. at the time of the tear film inspection. Is displayed.

音声制御部52は、スピーカ16及びマイクロホン18の動作を制御する。この音声制御部52は、涙液層検査時に、指示決定部60、検査制御部62、及び状態検出部64から入力される各種指示又は情報をスピーカ16により音声出力させる。 The voice control unit 52 controls the operation of the speaker 16 and the microphone 18. At the time of the tear film inspection, the voice control unit 52 causes the speaker 16 to output various instructions or information input from the instruction determination unit 60, the inspection control unit 62, and the state detection unit 64.

像取得部54は、カメラ部20の撮像素子32に接続されており、撮像素子32から既述の予備撮影又は本撮影により得られた前眼部Efの撮影画像データ34を逐次取得し、取得した撮影画像データ34を像検出部56へ逐次出力する。 The image acquisition unit 54 is connected to the image pickup element 32 of the camera unit 20, and sequentially acquires and acquires the captured image data 34 of the anterior eye portion Ef obtained by the preliminary imaging or the main imaging described above from the image pickup element 32. The captured image data 34 is sequentially output to the image detection unit 56.

像検出部56は、像取得部54から予備撮影の撮影画像データ34が逐次入力された場合、撮影画像データ34ごとに、例えば公知のパターンマッチング法(テンプレートマッチング法)或いは公知の目(瞳)検出方法による解析を行って撮影画像データ34から前眼部像35を検出する。そして、像検出部56は、アライメント検出時には撮影画像データ34内での前眼部像35の位置検出結果をアライメント検出部58へ出力し、被検眼ERの瞬き検出時には撮影画像データ34から検出(抽出)した前眼部像35の画像データを検査制御部62へ出力する。 When the captured image data 34 for preliminary shooting is sequentially input from the image acquisition unit 54, the image detection unit 56 may use, for example, a known pattern matching method (template matching method) or a known eye (pupil) for each captured image data 34. The anterior ocular segment image 35 is detected from the captured image data 34 by performing analysis by the detection method. Then, the image detection unit 56 outputs the position detection result of the anterior eye portion image 35 in the captured image data 34 to the alignment detection unit 58 at the time of alignment detection, and detects from the captured image data 34 at the time of blink detection of the eye subject ER. The image data of the anterior eye portion image 35 (extracted) is output to the inspection control unit 62.

また、像検出部56は、像取得部54から本撮影の撮影画像データ34が逐次入力された場合、撮影画像データ34ごとに、パターンマッチング法等による解析を行って撮影画像データ34から前眼部像35及び反射像36を検出する。ここで、撮影画像データ34内での反射像36の姿勢は、既述の図1、図3、及び図5に示したように、スマートフォン10の姿勢に応じて変化する。このため、像検出部56は、モーションセンサ40の検出結果に基づき撮影画像データ34内での反射像36の姿勢及び形状を判別し、この判別結果に基づき撮影画像データ34から反射像36を検出する。 Further, when the captured image data 34 of the main shooting is sequentially input from the image acquisition unit 54, the image detection unit 56 analyzes each captured image data 34 by a pattern matching method or the like, and performs analysis from the captured image data 34 to the front eye. The part image 35 and the reflected image 36 are detected. Here, the posture of the reflected image 36 in the captured image data 34 changes according to the posture of the smartphone 10 as shown in FIGS. 1, 3, and 5 described above. Therefore, the image detection unit 56 discriminates the posture and shape of the reflected image 36 in the captured image data 34 based on the detection result of the motion sensor 40, and detects the reflected image 36 from the captured image data 34 based on this discrimination result. do.

そして、像検出部56は、撮影画像データ34から検出した前眼部像35の画像データを検査制御部62へ出力し、撮影画像データ34から検出した反射像36の画像データを状態検出部64へ出力する。なお、前眼部像35の画像データは、後述の検査制御部62による本撮影開始後の被検眼Eの瞬き検出に用いられ、反射像36の画像データは、後述の状態検出部64による涙液層の状態検出に用いられる。 Then, the image detection unit 56 outputs the image data of the anterior eye portion image 35 detected from the captured image data 34 to the inspection control unit 62, and outputs the image data of the reflection image 36 detected from the captured image data 34 to the state detection unit 64. Output to. The image data of the anterior eye portion image 35 is used for blink detection of the eye to be inspected E after the start of main imaging by the inspection control unit 62 described later, and the image data of the reflection image 36 is tears by the state detection unit 64 described later. It is used to detect the state of the liquid layer.

アライメント検出部58は、像検出部56から逐次入力される前眼部像35の位置検出結果に基づき、被検眼Eに対するカメラ部20のアライメント状態を検出する。例えば、アライメント検出部58は、像検出部56の検出結果から撮影画像データ34内での前眼部像35(瞳孔等)の位置を検出する。次いで、アライメント検出部58は、前眼部像35の位置検出結果と、既知のレンズ群30の設定情報とに基づき、光軸OAに対する被検眼Eの基準位置の相対的な位置ずれ方向及び位置ずれ量を検出し、この検出結果をアライメント検出結果として指示決定部60へ出力する。 The alignment detection unit 58 detects the alignment state of the camera unit 20 with respect to the eye E to be inspected based on the position detection result of the anterior eye portion image 35 sequentially input from the image detection unit 56. For example, the alignment detection unit 58 detects the position of the anterior eye portion image 35 (pupil or the like) in the captured image data 34 from the detection result of the image detection unit 56. Next, the alignment detection unit 58 determines the relative positional deviation direction and position of the reference position of the eye E to be inspected with respect to the optical axis OA based on the position detection result of the anterior eye portion image 35 and the setting information of the known lens group 30. The amount of deviation is detected, and this detection result is output to the instruction determination unit 60 as an alignment detection result.

指示決定部60は、アライメント検出部58から入力されるアライメント検出結果に基づき、被検眼Eとカメラ部20との相対的な位置合わせの指標となるアライメント指示を決定する。例えば、指示決定部60は、アライメント検出結果に基づき光軸OAに対して被検眼Eの基準位置が相対的に位置ずれしている場合、アライメント指示として、この位置ずれを補正可能な筐体12の位置調整指示を決定する。また、指示決定部60は、アライメント検出結果に基づき光軸OAと被検眼Eの基準位置とが略一致している場合、アライメント指示として、現在の筐体12の位置を維持させる旨の位置維持指示を決定する。 The instruction determination unit 60 determines an alignment instruction as an index of relative alignment between the eye E to be inspected and the camera unit 20 based on the alignment detection result input from the alignment detection unit 58. For example, when the reference position of the eye E to be inspected is displaced relative to the optical axis OA based on the alignment detection result, the instruction determination unit 60 can correct the misalignment as an alignment instruction. Determine the position adjustment instruction of. Further, when the instruction determination unit 60 substantially matches the reference position of the optical axis OA and the eye E to be inspected based on the alignment detection result, the instruction determination unit 60 maintains the position to maintain the current position of the housing 12 as an alignment instruction. Determine the instructions.

そして、指示決定部60は、決定したアライメント指示(位置調整指示又は位置維持指示)を音声制御部52に出力する。これにより、音声制御部52によるスピーカ16でのアライメント指示の音声出力が実行される。このため、指示決定部60は、スピーカ16及び音声制御部52と共に、本発明の指示部を構成する。 Then, the instruction determination unit 60 outputs the determined alignment instruction (position adjustment instruction or position maintenance instruction) to the voice control unit 52. As a result, the voice control unit 52 executes voice output of the alignment instruction on the speaker 16. Therefore, the instruction determination unit 60 constitutes the instruction unit of the present invention together with the speaker 16 and the voice control unit 52.

検査制御部62は、表示制御部50を介した表示パネル22の画面表示制御と、音声制御部52を介したスピーカ16の音声出力制御と、カメラ部20による予備撮影及び本撮影の撮影制御と行う。以下、検査制御部62による各制御について具体的に説明する。 The inspection control unit 62 controls the screen display of the display panel 22 via the display control unit 50, controls the audio output of the speaker 16 via the audio control unit 52, and controls the preliminary shooting and the main shooting by the camera unit 20. conduct. Hereinafter, each control by the inspection control unit 62 will be specifically described.

検査制御部62は、アライメント検出前には、ユーザに対してカメラ部20を注視させる旨の注視指示を表示制御部50及び音声制御部52の少なくとも一方に出力する。これにより、表示制御部50による表示パネル22での注視指示の画面表示と、音声制御部52によるスピーカ16での注視指示の音声出力との少なくとも一方が実行される。その結果、アライメント検出前にユーザにカメラ部20を注視させることができる。 Before the alignment detection, the inspection control unit 62 outputs a gaze instruction to the user to gaze at the camera unit 20 to at least one of the display control unit 50 and the voice control unit 52. As a result, at least one of the screen display of the gaze instruction on the display panel 22 by the display control unit 50 and the voice output of the gaze instruction on the speaker 16 by the voice control unit 52 is executed. As a result, the user can gaze at the camera unit 20 before the alignment detection.

検査制御部62は、注視指示の出力後、カメラ部20を制御してアライメント検出用の予備撮影を実行させる。これにより、カメラ部20により前眼部Efが連続撮影され、カメラ部20から撮影画像データ34が像取得部54に逐次入力される。その結果、既述の像検出部56による前眼部像35の位置検出と、アライメント検出部58によるアライメント状態の検出と、指示決定部60によるアライメント指示の出力と、スピーカ16等によるアライメント指示の音声出力と、が繰り返し実行される。このため、ユーザによる手動アライメントが可能となる。 After outputting the gaze instruction, the inspection control unit 62 controls the camera unit 20 to execute a preliminary image for alignment detection. As a result, the front eye portion Ef is continuously photographed by the camera unit 20, and the captured image data 34 is sequentially input from the camera unit 20 to the image acquisition unit 54. As a result, the position detection of the anterior eye portion image 35 by the above-mentioned image detection unit 56, the detection of the alignment state by the alignment detection unit 58, the output of the alignment instruction by the instruction determination unit 60, and the alignment instruction by the speaker 16 or the like. Audio output and are executed repeatedly. Therefore, manual alignment by the user is possible.

検査制御部62は、アライメントが完了した場合、すなわちアライメント検出部58のアライメント検出結果に基づき光軸OAと被検眼Eの基準位置とが略一致した場合に、表示制御部50を制御して、表示パネル22にパターン28を表示させる。これにより、表示パネル22から前眼部Efに対してパターン光28Lが投影される。なお、アライメント中はパターン28とは異なるアライメント用のパターンを表示パネル22に表示出力し、このアライメント用パターンの角膜反射像に基づきアライメントを行ってもよい。 The inspection control unit 62 controls the display control unit 50 when the alignment is completed, that is, when the optical axis OA and the reference position of the eye E to be inspected substantially match based on the alignment detection result of the alignment detection unit 58. The pattern 28 is displayed on the display panel 22. As a result, the pattern light 28L is projected from the display panel 22 onto the front eye portion Ef. During alignment, a pattern for alignment different from the pattern 28 may be displayed and output on the display panel 22, and alignment may be performed based on the corneal reflection image of this alignment pattern.

検査制御部62は、表示パネル22にパターン28を表示させた後、ユーザに対して瞬きを行わせる旨の瞬き指示を音声制御部52に出力する。これにより、音声制御部52によるスピーカ16での瞬き指示の音声出力が実行される。その結果、本撮影の開始前にユーザに瞬きを実行させることができる。 After displaying the pattern 28 on the display panel 22, the inspection control unit 62 outputs a blink instruction to the user to blink to the voice control unit 52. As a result, the voice control unit 52 executes the voice output of the blink instruction by the speaker 16. As a result, the user can be made to blink before the start of the main shooting.

また、検査制御部62は、瞬き指示の出力と同時に、カメラ部20を制御して瞬き検出用の予備撮影を実行させる。これにより、カメラ部20にて前眼部Efが連続撮影され、カメラ部20から撮影画像データ34が像取得部54に逐次入力される。その結果、像取得部54に新たな撮影画像データ34が入力されるごとに、像検出部56による前眼部像35の検出と、像検出部56による前眼部像35の画像データの検査制御部62への出力と、が繰り返し実行される。 Further, the inspection control unit 62 controls the camera unit 20 at the same time as outputting the blink instruction to execute the preliminary shooting for blink detection. As a result, the front eye portion Ef is continuously photographed by the camera unit 20, and the captured image data 34 is sequentially input from the camera unit 20 to the image acquisition unit 54. As a result, each time new captured image data 34 is input to the image acquisition unit 54, the image detection unit 56 detects the anterior eye portion image 35 and the image detection unit 56 inspects the image data of the anterior eye portion image 35. The output to the control unit 62 and the output to the control unit 62 are repeatedly executed.

そして、検査制御部62は、像検出部56から逐次入力される前眼部像35の画像データに基づき、被検眼Eの瞬き検出を行う。例えば、検査制御部62は、像検出部56から前眼部像35の検出結果が入力されるごとに、前眼部像35の画像データから被検眼Eの瞳孔の大きさを算出する。そして、検査制御部62は、瞳孔の大きさに極端な変化が生じた場合には瞬きがあったと判断する。なお、瞬きを検出する方法は各種方法が知られており(特開平9-215662号公報)、公知の任意の方法を用いてもよい。 Then, the inspection control unit 62 performs blink detection of the eye to be inspected E based on the image data of the anterior eye portion image 35 sequentially input from the image detection unit 56. For example, the inspection control unit 62 calculates the size of the pupil of the eye to be inspected E from the image data of the anterior eye portion image 35 each time the detection result of the anterior eye portion image 35 is input from the image detection unit 56. Then, the inspection control unit 62 determines that there is a blink when an extreme change occurs in the size of the pupil. Various methods are known for detecting blinks (Japanese Patent Laid-Open No. 9-215662), and any known method may be used.

検査制御部62は、ユーザの瞬きを検出すると、カメラ部20を制御して本撮影を実行させる。これにより、カメラ部20にて前眼部Efが連続撮影され、カメラ部20から撮影画像データ34が像取得部54に逐次入力される。その結果、像取得部54に新たな撮影画像データ34が入力されるごとに、像検出部56による前眼部像35及び反射像36の検出と、検査制御部62への前眼部像35の画像データの出力と、状態検出部64への反射像36の画像データの出力と、が繰り返し実行される。 When the inspection control unit 62 detects the blink of the user, the inspection control unit 62 controls the camera unit 20 to execute the main shooting. As a result, the front eye portion Ef is continuously photographed by the camera unit 20, and the captured image data 34 is sequentially input from the camera unit 20 to the image acquisition unit 54. As a result, each time new captured image data 34 is input to the image acquisition unit 54, the image detection unit 56 detects the anterior eye portion image 35 and the reflection image 36, and the inspection control unit 62 detects the anterior eye portion image 35. The output of the image data of the above and the output of the image data of the reflection image 36 to the state detection unit 64 are repeatedly executed.

検査制御部62は、本撮影の開始後、ユーザが再度瞬きするまで、或いは一定時間が経過するまでのいずれかの条件が満たされた場合に、カメラ部20による本撮影を終了させる。このため、検査制御部62は、本撮影開始後も像検出部56から逐次入力される前眼部像35の画像データに基づき瞬き検出を継続して行う。 The inspection control unit 62 ends the main shooting by the camera unit 20 when either of the conditions from the start of the main shooting until the user blinks again or until a certain time elapses is satisfied. Therefore, the inspection control unit 62 continuously performs blink detection based on the image data of the anterior eye portion image 35 sequentially input from the image detection unit 56 even after the start of the main imaging.

状態検出部64は、本撮影の間に像検出部56から連続的に入力された反射像36の画像データを解析して前眼部Efの角膜表面を覆う涙液層の状態を検出する。 The state detection unit 64 analyzes the image data of the reflection image 36 continuously input from the image detection unit 56 during the main imaging to detect the state of the tear film layer covering the corneal surface of the anterior eye portion Ef.

例えば、前眼部Efの角膜表面上の投影範囲R1では、パターン光28Lが涙液層の油層の表裏面で反射されることにより、角膜表面上に干渉像(干渉縞)が発生する。この干渉像は、投影範囲R1内の各位置における涙液層の油層の厚みに応じた色を有している。このため、反射像36の各位置の色を検出することで、投影範囲R1内の各位置における油層の厚みを検出することができる。従って、状態検出部64は、反射像36の画像データごとに、投影範囲R1内の各位置の色を検出することで、各位置における油層の厚みを検出する。これにより、状態検出部64は、涙液層の状態として、本撮影の開始時点から終了時点までの油層の厚みの経時変化を検出することができる。 For example, in the projection range R1 on the surface of the cornea of the anterior eye portion Ef, the pattern light 28L is reflected on the front and back surfaces of the oil layer of the tear film, so that an interference image (interference fringe) is generated on the surface of the cornea. This interference image has a color corresponding to the thickness of the oil layer of the tear film at each position in the projection range R1. Therefore, by detecting the color at each position of the reflected image 36, the thickness of the oil layer at each position within the projection range R1 can be detected. Therefore, the state detection unit 64 detects the thickness of the oil layer at each position by detecting the color of each position in the projection range R1 for each image data of the reflection image 36. As a result, the state detection unit 64 can detect the change over time in the thickness of the oil layer from the start time to the end time of the main imaging as the state of the tear film.

また、状態検出部64は、油層の厚みの経時変化の検出結果に基づき、涙液層の状態として、角膜表面上で涙液層が破壊された領域であるドライスポットの形状及び形成位置等を検出することができる。そして、状態検出部64は、涙液層の状態の検出結果を涙液層の検査結果として表示制御部50と記憶部44とに出力する。これにより、涙液層の検査結果が表示制御部50により表示パネル22に表示されると共に、記憶部44に記憶される。なお、涙液層が破壊されると油層の干渉パターンが消失すると共に、水層が破壊されることにより破壊部の反射率が低下するため、反射像36の輝度変化によっても涙液層の破壊を検出することが可能となる。 Further, the state detection unit 64 determines the shape and formation position of the dry spot, which is a region on the corneal surface where the tear layer is destroyed, as the state of the tear layer based on the detection result of the change in the thickness of the oil layer with time. Can be detected. Then, the state detection unit 64 outputs the detection result of the state of the tear film to the display control unit 50 and the storage unit 44 as the inspection result of the tear film. As a result, the inspection result of the tear film is displayed on the display panel 22 by the display control unit 50 and stored in the storage unit 44. When the tear film is destroyed, the interference pattern of the oil layer disappears, and the reflectance of the fractured portion decreases due to the destruction of the aqueous layer. Therefore, the tear film is also destroyed by the change in the brightness of the reflected image 36. Can be detected.

[第1実施形態のスマートフォンの作用]
図7は、第1実施形態のスマートフォン10による被検眼Eの涙液層の検査の流れを示したフローチャートである(本発明の携帯端末の制御方法に相当)。
[Action of smartphone of the first embodiment]
FIG. 7 is a flowchart showing the flow of inspection of the tear film layer of the eye E to be inspected by the smartphone 10 of the first embodiment (corresponding to the control method of the mobile terminal of the present invention).

図7に示すように、ユーザはスマートフォン10の表示入力部14に対してプログラム48の起動操作を行う(ステップS1)。この操作を受けて、制御部46が記憶部44からプログラム48を読み出して実行することで、スマートフォン10による涙液層の検査が開始される。 As shown in FIG. 7, the user performs an operation to start the program 48 on the display input unit 14 of the smartphone 10 (step S1). In response to this operation, the control unit 46 reads the program 48 from the storage unit 44 and executes it, so that the examination of the tear film by the smartphone 10 is started.

最初に検査制御部62が注視指示を表示制御部50及び音声制御部52の少なくとも一方に出力する。これにより、表示制御部50による表示パネル22での注視指示の画面表示と、音声制御部52によるスピーカ16での注視指示の音声出力との少なくとも一方を実行されることで、ユーザ(被検眼E)にカメラ部20を注視させることができる(ステップS2)。 First, the inspection control unit 62 outputs a gaze instruction to at least one of the display control unit 50 and the voice control unit 52. As a result, at least one of the screen display of the gaze instruction on the display panel 22 by the display control unit 50 and the voice output of the gaze instruction on the speaker 16 by the voice control unit 52 is executed, so that the user (eye to be inspected E) is executed. ) Can gaze at the camera unit 20 (step S2).

次いで、検査制御部62は、カメラ部20による前眼部Efの予備撮影を開始させる(ステップS3)。これにより、カメラ部20により前眼部Efが連続撮影されて、このカメラ部20から像取得部54に対して前眼部Efの撮影画像データ34が逐次出力される。そして、像取得部54による撮影画像データ34の取得と、像検出部56による前眼部像35の検出と(ステップS4)、アライメント検出部58によるアライメント状態の検出(ステップS5)及び指示決定部60へのアライメント検出結果の出力と、が実行される。 Next, the inspection control unit 62 starts preliminary imaging of the anterior eye portion Ef by the camera unit 20 (step S3). As a result, the front eye portion Ef is continuously photographed by the camera unit 20, and the captured image data 34 of the front eye portion Ef is sequentially output from the camera unit 20 to the image acquisition unit 54. Then, the image acquisition unit 54 acquires the captured image data 34, the image detection unit 56 detects the anterior eye portion image 35 (step S4), the alignment detection unit 58 detects the alignment state (step S5), and the instruction determination unit. The output of the alignment detection result to 60 and the execution are performed.

アライメント検出結果の入力を受けた指示決定部60は、光軸OAに対して被検眼Eの基準位置が相対的に位置ずれしている場合、アライメント指示としてその位置ずれを補正可能な位置調整指示を決定し、この位置調整指示を音声制御部52に出力する(ステップS6でNO)。これにより、スピーカ16でのアライメント指示(位置調整指示)の音声出力が実行される(ステップS7)。その結果、ユーザがアライメント指示に従って顔を移動させたり或いはスマートフォン10を移動させたりすることで、被検眼Eとカメラ部20との相対的な位置合わせ(手動アライメント)が実行される。 When the reference position of the eye E to be inspected is displaced relative to the optical axis OA, the instruction determination unit 60 that receives the input of the alignment detection result gives an alignment instruction as a position adjustment instruction capable of correcting the misalignment. Is determined, and this position adjustment instruction is output to the voice control unit 52 (NO in step S6). As a result, the audio output of the alignment instruction (position adjustment instruction) on the speaker 16 is executed (step S7). As a result, the user moves the face or the smartphone 10 according to the alignment instruction, so that the relative alignment (manual alignment) between the eye E to be inspected and the camera unit 20 is executed.

以下、光軸OAと被検眼Eの基準位置とが略一致するまで、ステップS3からステップS7の各処理が繰り返し実行される(ステップS6でYES)。そして、指示決定部60は、アライメント検出結果に基づき、光軸OAと被検眼Eの基準位置とが略一致した場合、アライメント指示として位置維持指示を決定し、この位置維持指示を音声制御部52に出力する。これにより、スピーカ16による位置維持指示の音声出力が実行されるため、ユーザはアライメントが完了したことを判別できる。 Hereinafter, each process from step S3 to step S7 is repeatedly executed until the optical axis OA and the reference position of the eye to be inspected E substantially match (YES in step S6). Then, based on the alignment detection result, the instruction determination unit 60 determines a position maintenance instruction as an alignment instruction when the optical axis OA and the reference position of the eye to be inspected E substantially match, and the voice control unit 52 issues this position maintenance instruction. Output to. As a result, the speaker 16 executes the voice output of the position maintenance instruction, so that the user can determine that the alignment is completed.

なお、光軸OAの方向における前眼部Efとカメラ部20とのアライメントについては、最初に、前眼部Efの撮像範囲が規定の範囲に収まるように音声指示を出力することで、この音声指示に従ってユーザがスマートフォン10を前後移動させたり、或いはカメラ部20のズーム機能を用いて観察範囲が規定の範囲となるよう撮像倍率を変更したりすることで、粗アライメントを行う。次いで、カメラ部20のオートフォーカス機能を利用して精密アライメントを実行する。 Regarding the alignment between the front eye portion Ef and the camera unit 20 in the direction of the optical axis OA, first, this voice is output by outputting a voice instruction so that the imaging range of the front eye portion Ef falls within the specified range. Rough alignment is performed by the user moving the smartphone 10 back and forth according to the instruction, or by changing the imaging magnification so that the observation range becomes a specified range by using the zoom function of the camera unit 20. Next, precision alignment is executed using the autofocus function of the camera unit 20.

アライメントが完了すると、検査制御部62は、表示制御部50を制御して表示パネル22にパターン28を表示させることにより、表示パネル22にパターン光28Lを発光させる。これにより、表示パネル22から前眼部Efに対してパターン光28Lが投影される(ステップS8、本発明の投影ステップに相当)。 When the alignment is completed, the inspection control unit 62 controls the display control unit 50 to display the pattern 28 on the display panel 22, so that the display panel 22 emits the pattern light 28L. As a result, the pattern light 28L is projected from the display panel 22 onto the anterior eye portion Ef (step S8, corresponding to the projection step of the present invention).

次いで、検査制御部62は、瞬き指示を音声制御部52に出力する。これにより、スピーカ16による瞬き指示の音声出力が実行されるので、ユーザに対して瞬きの実行を促すことができる(ステップS9)。 Next, the inspection control unit 62 outputs a blink instruction to the voice control unit 52. As a result, the voice output of the blink instruction by the speaker 16 is executed, so that the user can be urged to execute the blink (step S9).

また、検査制御部62は、瞬き指示の出力と同時に、カメラ部20による前眼部Efの予備撮影を開始させる。これにより、カメラ部20により前眼部Efが連続撮影され、このカメラ部20から像取得部54に対して撮影画像データ34が逐次出力される。さらに、カメラ部20から撮影画像データ34が出力されるごとに、像取得部54による撮影画像データ34の取得と、像検出部56による前眼部像35の検出と、検査制御部62による瞬き検出と、が繰り返し実行される(ステップS10でNO)。 Further, the inspection control unit 62 starts the preliminary imaging of the anterior eye portion Ef by the camera unit 20 at the same time as the output of the blink instruction. As a result, the front eye portion Ef is continuously photographed by the camera unit 20, and the captured image data 34 is sequentially output from the camera unit 20 to the image acquisition unit 54. Further, each time the captured image data 34 is output from the camera unit 20, the image acquisition unit 54 acquires the captured image data 34, the image detection unit 56 detects the anterior eye portion image 35, and the inspection control unit 62 blinks. Detection and execution are repeated (NO in step S10).

そして、検査制御部62は、被検眼Eの瞬きを検出した場合、カメラ部20による前眼部Efの本撮影を開始させる(ステップS10でYES、ステップS11、本発明の撮影ステップに相当)。これにより、カメラ部20により前眼部Efが連続的に撮影され、このカメラ部20から像取得部54に対して撮影画像データ34が逐次出力される。なお、撮影画像データ34は動画であっても良いし、或いは一定の時間間隔でキャプチャされる静止画であってもよい。 Then, when the inspection control unit 62 detects the blink of the eye to be inspected E, the camera unit 20 starts the main imaging of the anterior eye portion Ef (YES in step S10, step S11, corresponding to the imaging step of the present invention). As a result, the front eye portion Ef is continuously photographed by the camera unit 20, and the captured image data 34 is sequentially output from the camera unit 20 to the image acquisition unit 54. The captured image data 34 may be a moving image or a still image captured at regular time intervals.

また、カメラ部20から撮影画像データ34が出力されるごとに、像取得部54による撮影画像データ34の取得と、像検出部56による前眼部像35及び反射像36の検出(ステップS12、本発明の像検出ステップに相当)と、検査制御部62による瞬き検出と、状態検出部64への反射像36の画像データの出力と、が繰り返し実行される(ステップS15でNO)。 Further, each time the captured image data 34 is output from the camera unit 20, the image acquisition unit 54 acquires the captured image data 34, and the image detection unit 56 detects the anterior eye portion image 35 and the reflected image 36 (step S12, (Corresponding to the image detection step of the present invention), blink detection by the inspection control unit 62, and output of the image data of the reflection image 36 to the state detection unit 64 are repeatedly executed (NO in step S15).

本撮影の開始後、検査制御部62は、ユーザの再度の瞬きを検出した場合、カメラ部20による本撮影を終了させる(ステップS15でYES)。 After the start of the main shooting, when the inspection control unit 62 detects another blink of the user, the inspection control unit 62 ends the main shooting by the camera unit 20 (YES in step S15).

本撮影が終了すると、状態検出部64は、像検出部56から連続的に入力された反射像36の画像データを解析して、涙液層(油層)の厚みの経時変化と、ドライスポットの形状及び形成位置と、を含む涙液層の各種状態の検出を行う(ステップS16、本発明の状態検出ステップに相当)。これにより、投影範囲R1内の涙液層の状態が検出される。この涙液層の状態検出結果は、涙液層の検査結果として、状態検出部64から表示制御部50と記憶部44とにそれぞれ出力される。そして、涙液層の検査結果が、表示パネル22に表示されると共に記憶部44に記憶される。 When the main imaging is completed, the state detection unit 64 analyzes the image data of the reflection image 36 continuously input from the image detection unit 56, and changes the thickness of the tear film (oil layer) with time and the dry spot. Various states of the tear film including the shape and formation position are detected (step S16, corresponding to the state detection step of the present invention). As a result, the state of the tear film in the projection range R1 is detected. The state detection result of the tear layer is output from the state detection unit 64 to the display control unit 50 and the storage unit 44, respectively, as the inspection result of the tear layer. Then, the test result of the tear film is displayed on the display panel 22 and stored in the storage unit 44.

[第1実施形態の効果]
以上のように第1実施形態のスマートフォン10では、スマートフォン10の既存の各部材を用いて前眼部Efへのパターン光28Lの投影と、前眼部Efの撮影と、撮影画像データ34の解析(反射像36の検出及び涙液層の状態検出)とを実行可能である。このため、従来の眼科装置に設けられているようなユーザの顔を固定する装置、被検眼Eに対して照明部及び撮影部をアライメントする機構、及び撮影部の焦点調整機構などの大掛かりな機構が不要となる。その結果、ユーザは、眼科に赴かなくとも涙液層の検査を簡単に行うことができる。
[Effect of the first embodiment]
As described above, in the smartphone 10 of the first embodiment, the pattern light 28L is projected onto the anterior eye portion Ef, the anterior eye portion Ef is photographed, and the captured image data 34 is analyzed using the existing members of the smartphone 10. (Detection of the reflection image 36 and detection of the state of the tear film) can be performed. For this reason, a large-scale mechanism such as a device for fixing the user's face as provided in a conventional ophthalmic device, a mechanism for aligning the illumination unit and the imaging unit with respect to the eye E to be inspected, and a focus adjustment mechanism for the imaging unit. Is unnecessary. As a result, the user can easily inspect the tear film without going to an ophthalmologist.

[第2実施形態のスマートフォン]
図8は、第2実施形態のスマートフォン10の電気的構成を示すブロック図である。上記第1実施形態では、本撮影が実行されている間、ユーザとスマートフォン10(カメラ部20)との相対位置関係が一定に保たれていることを前提としているが、ユーザが本撮影中に顔又はスマートフォン10を動かしてしまうおそれがある。この場合、表示パネル22から前眼部Efに投影されるパターン光28Lの投影状態(投影範囲R1、及び明るさ)が変化してしまうので、例えば、前眼部Efの角膜表面上の所望の領域における涙液層の状態の経時変化を正確に検出することができない。
[Smartphone of the second embodiment]
FIG. 8 is a block diagram showing an electrical configuration of the smartphone 10 of the second embodiment. In the first embodiment, it is assumed that the relative positional relationship between the user and the smartphone 10 (camera unit 20) is kept constant while the main shooting is being executed, but the user is during the main shooting. There is a risk of moving the face or the smartphone 10. In this case, the projection state (projection range R1 and brightness) of the pattern light 28L projected from the display panel 22 onto the anterior eye portion Ef changes. It is not possible to accurately detect changes in the state of the tear layer in the area over time.

この際に、表示パネル22は、表示するパターン28の表示態様を任意に調整可能であり、すなわちパターン光28Lの発光態様を任意に調整可能である。そこで、第2実施形態のスマートフォン10には、本撮影中(パターン光28Lの投影開始後の予備撮影中でも可)にユーザが顔又はスマートフォン10を誤って動かしてしまった場合でも、前眼部Efに投影されるパターン光28Lの投影状態を予め定めた特定状態に維持させる機能が設けられている。 At this time, the display panel 22 can arbitrarily adjust the display mode of the pattern 28 to be displayed, that is, the light emission mode of the pattern light 28L can be arbitrarily adjusted. Therefore, in the smartphone 10 of the second embodiment, even if the user accidentally moves the face or the smartphone 10 during the main shooting (even during the preliminary shooting after the start of projection of the pattern light 28L), the anterior eye portion Ef A function is provided to maintain the projected state of the pattern light 28L projected on the smartphone in a predetermined specific state.

図8に示すように、第2実施形態のスマートフォン10は、制御部46が投影状態検出部70及び投影制御部72として機能する点を除けば、第1実施形態のスマートフォン10と基本的に同じ構成である。このため、上記第1実施形態と機能又は構成上同一のものについては、同一符号を付してその説明は省略する。 As shown in FIG. 8, the smartphone 10 of the second embodiment is basically the same as the smartphone 10 of the first embodiment except that the control unit 46 functions as the projection state detection unit 70 and the projection control unit 72. It is a composition. Therefore, those having the same function or configuration as the first embodiment are designated by the same reference numerals and the description thereof will be omitted.

第2実施形態の像検出部56は、第1実施形態の像検出部56と基本的に同じである。ただし、第2実施形態の像検出部56は、本撮影中に像取得部54から撮影画像データ34が入力されるごとに、前眼部像35及び反射像36の双方の検出結果(以下、像検出結果と略す)と、撮影画像データ34とを投影状態検出部70へ出力する。 The image detection unit 56 of the second embodiment is basically the same as the image detection unit 56 of the first embodiment. However, the image detection unit 56 of the second embodiment detects the detection results of both the anterior eye portion image 35 and the reflection image 36 each time the captured image data 34 is input from the image acquisition unit 54 during the main shooting (hereinafter, The image detection result) and the captured image data 34 are output to the projection state detection unit 70.

投影状態検出部70は、本撮影中に像検出部56から像検出結果及び撮影画像データ34が入力されるごとに、この像検出結果に基づき、撮影画像データ34から前眼部Efの角膜表面に対するパターン光28Lの投影状態を検出する。このパターン光28Lの投影状態には、パターン光28Lの投影範囲R1(投影位置、大きさ、及び形状等)、及び明るさなどのように、ユーザとスマートフォン10(カメラ部20)との相対位置関係の変化に応じて変化する項目のいずれか一つが含まれている。 Each time the image detection result and the captured image data 34 are input from the image detection unit 56 during the main imaging, the projection state detection unit 70 is based on the image detection result from the captured image data 34 to the corneal surface of the anterior eye portion Ef. The projection state of the pattern light 28L with respect to is detected. In the projection state of the pattern light 28L, the relative position between the user and the smartphone 10 (camera unit 20) such as the projection range R1 (projection position, size, shape, etc.) of the pattern light 28L, brightness, and the like. It contains one of the items that changes as the relationship changes.

例えば投影状態検出部70は、上述の像検出結果に基づき、撮影画像データ34から、前眼部像35に対する反射像36の画像範囲と、反射像36の輝度とをそれぞれ判別する。次いで、投影状態検出部70は、上述の反射像36の画像範囲に基づき前眼部Efに対するパターン光28Lの投影範囲R1を検出すると共に、上述の反射像36の画素の輝度に基づきパターン光28Lの明るさを検出する。 For example, the projection state detection unit 70 discriminates from the captured image data 34 the image range of the reflected image 36 with respect to the anterior eye portion image 35 and the brightness of the reflected image 36, respectively, based on the above-mentioned image detection result. Next, the projection state detection unit 70 detects the projection range R1 of the pattern light 28L with respect to the anterior eye portion Ef based on the image range of the reflection image 36 described above, and the pattern light 28L based on the brightness of the pixels of the reflection image 36 described above. Detects the brightness of.

そして、投影状態検出部70は、像検出部56から像検出結果及び撮影画像データ34が入力されるごとに、パターン光28Lの投影状態(投影範囲R1及び明るさ)の検出結果を投影制御部72へ出力する。 Then, each time the image detection result and the captured image data 34 are input from the image detection unit 56, the projection state detection unit 70 outputs the detection result of the projection state (projection range R1 and brightness) of the pattern light 28L to the projection control unit. Output to 72.

投影制御部72は、本撮影時中に投影状態検出部70から逐次入力されるパターン光28Lの投影状態の検出結果に基づき、このパターン光28Lの投影状態が特定の状態に維持されるように、表示パネル22から前眼部Efに投影されるパターン光28Lの投影制御を行う。なお、この特定の状態としては、メーカ等により予め定められた投影状態でもよいし、或いは本撮影の開始時に投影状態検出部70から最初に入力されたパターン光28Lの投影状態でもよく、特に限定はされない。 The projection control unit 72 maintains the projection state of the pattern light 28L in a specific state based on the detection result of the projection state of the pattern light 28L sequentially input from the projection state detection unit 70 during the main shooting. , The projection control of the pattern light 28L projected from the display panel 22 onto the anterior segment Ef is performed. The specific state may be a projection state predetermined by the manufacturer or the like, or may be a projection state of the pattern light 28L first input from the projection state detection unit 70 at the start of the main shooting, and is particularly limited. Will not be done.

投影制御部72は、本撮影中に投影状態検出部70からパターン光28Lの投影状態の検出結果が入力されるごとに、投影状態と特定の状態との差分を検出する。そして、投影制御部72は、投影状態と特定の状態との差分に基づき、表示制御部50を介して表示パネル22によるパターン28の表示態様(表示範囲及び輝度)、すなわち表示パネル22によるパターン光28Lの発光態様(発光範囲及び明るさ)を調整することで、前眼部Efに投影されるパターン光28Lの投影制御を行う。 The projection control unit 72 detects the difference between the projection state and the specific state each time the detection result of the projection state of the pattern light 28L is input from the projection state detection unit 70 during the main shooting. Then, the projection control unit 72 displays the display mode (display range and brightness) of the pattern 28 by the display panel 22 via the display control unit 50 based on the difference between the projection state and the specific state, that is, the pattern light by the display panel 22. By adjusting the light emission mode (light emission range and brightness) of 28L, the projection control of the pattern light 28L projected on the anterior eye portion Ef is performed.

例えば投影制御部72は、パターン光28Lの投影範囲R1が特定の状態で定められている範囲とは異なる場合、双方の範囲の差分に基づき、表示制御部50を介して表示パネル22に表示されるパターン28の表示範囲(パターン光28Lの発光範囲)を調整する。これにより、表示パネル22から前眼部Efに投影されるパターン光28Lの投影範囲R1が、特定の状態で定められている範囲に調整される。 For example, when the projection range R1 of the pattern light 28L is different from the range defined in a specific state, the projection control unit 72 is displayed on the display panel 22 via the display control unit 50 based on the difference between the two ranges. The display range of the pattern 28 (the emission range of the pattern light 28L) is adjusted. As a result, the projection range R1 of the pattern light 28L projected from the display panel 22 onto the front eye portion Ef is adjusted to a range defined in a specific state.

また、投影制御部72は、パターン光28Lの明るさが特定の状態で定められている明るさとは異なる場合には、双方の明るさの差分に応じて、表示制御部50を制御して表示パネル22に表示されるパターン28の輝度(明るさ)を調整する。これにより、表示パネル22から前眼部Efに投影されるパターン光28Lの明るさが、特定の状態で定められている明るさに調整される。 Further, when the brightness of the pattern light 28L is different from the brightness defined in a specific state, the projection control unit 72 controls and displays the display control unit 50 according to the difference between the brightness of both. The brightness of the pattern 28 displayed on the panel 22 is adjusted. As a result, the brightness of the pattern light 28L projected from the display panel 22 onto the front eye portion Ef is adjusted to the brightness defined in a specific state.

図9は、投影制御部72によるパターン28の表示態様の調整の第1例を説明するための説明図である。図9の符号9Aに示すように、スマートフォン10に対して被検眼Eが、既述の特定の状態を満たす位置関係から光軸OAの方向に沿ってΔLだけ相対的に位置ずれした際に、投影制御部72による投影制御を行わない場合、表示パネル22から前眼部Efに投影されるパターン光28Lの投影範囲R1が変化してしまう。 FIG. 9 is an explanatory diagram for explaining a first example of adjusting the display mode of the pattern 28 by the projection control unit 72. As shown by reference numeral 9A in FIG. 9, when the eye E to be inspected is displaced relative to the smartphone 10 by ΔL along the direction of the optical axis OA from the positional relationship satisfying the above-mentioned specific state. If the projection control is not performed by the projection control unit 72, the projection range R1 of the pattern light 28L projected from the display panel 22 onto the anterior eye portion Ef changes.

そこで、図9の符号9Bに示すように、投影制御部72は、投影状態検出部70から逐次入力されるパターン光28Lの投影状態の検出結果に基づき、パターン光28Lの投影範囲R1が位置ずれの前後で一定に維持されるように、表示制御部50を介して表示パネル22上でのパターン28の表示範囲を範囲W0から範囲W1に変更させる。 Therefore, as shown by reference numeral 9B in FIG. 9, the projection control unit 72 shifts the projection range R1 of the pattern light 28L based on the detection result of the projection state of the pattern light 28L sequentially input from the projection state detection unit 70. The display range of the pattern 28 on the display panel 22 is changed from the range W0 to the range W1 via the display control unit 50 so as to be maintained constant before and after.

図10は、投影制御部72によるパターン28の表示態様の調整の第2例を説明するための説明図である。図10に示すように、第2例では、スマートフォン10に対して被検眼Eが、既述の特定の状態を満たす位置関係(図9の符号9A参照)から光軸垂直方向にΔhだけ相対的に位置ずれしている。この場合に投影制御部72は、投影状態検出部70から逐次入力される投影状態の検出結果に基づき、投影範囲R1が位置ずれの前後で一定に維持されるように、表示制御部50を介して表示パネル22上でのパターン28の表示範囲を範囲W0から範囲W2に変更させる。 FIG. 10 is an explanatory diagram for explaining a second example of adjusting the display mode of the pattern 28 by the projection control unit 72. As shown in FIG. 10, in the second example, in the second example, the eye E to be inspected is relative to the smartphone 10 by Δh in the direction perpendicular to the optical axis from the positional relationship satisfying the above-mentioned specific state (see reference numeral 9A in FIG. 9). Is out of position. In this case, the projection control unit 72 passes through the display control unit 50 so that the projection range R1 is maintained constant before and after the positional shift based on the detection result of the projection state sequentially input from the projection state detection unit 70. The display range of the pattern 28 on the display panel 22 is changed from the range W0 to the range W2.

図11は、投影制御部72によるパターン28の表示態様の調整の第3例を説明するための説明図である。図11に示すように、第3例では、スマートフォン10に対して被検眼Eが、既述の特定の状態を満たす位置関係(図9の符号9A参照)から角度θだけ相対的に傾いている。この場合に投影制御部72は、投影状態検出部70から逐次入力される投影状態の検出結果に基づき、投影範囲R1が被検眼Eの相対的な傾きの前後で一定に維持されるように、表示制御部50を介して表示パネル22上でのパターン28の表示範囲を範囲W0から範囲W3に変更させる。 FIG. 11 is an explanatory diagram for explaining a third example of adjusting the display mode of the pattern 28 by the projection control unit 72. As shown in FIG. 11, in the third example, the eye E to be inspected is tilted relative to the smartphone 10 by an angle θ from the positional relationship (see reference numeral 9A in FIG. 9) that satisfies the above-mentioned specific state. .. In this case, the projection control unit 72 keeps the projection range R1 constant before and after the relative inclination of the eye E to be inspected based on the detection result of the projection state sequentially input from the projection state detection unit 70. The display range of the pattern 28 on the display panel 22 is changed from the range W0 to the range W3 via the display control unit 50.

また、投影制御部72は、上述の第1例から第3例において、投影状態検出部70から逐次入力される投影状態の検出結果に基づき、ユーザとスマートフォン10との相対位置関係の変化の前後で反射像36の輝度が一定に維持されるように、表示制御部50を介して表示パネル22上でのパターン28の輝度を適宜調整する。 Further, the projection control unit 72 before and after the change in the relative positional relationship between the user and the smartphone 10 based on the detection result of the projection state sequentially input from the projection state detection unit 70 in the above-mentioned first to third examples. The brightness of the pattern 28 on the display panel 22 is appropriately adjusted via the display control unit 50 so that the brightness of the reflected image 36 is kept constant.

図12は、第2実施形態のスマートフォン10による被検眼Eの涙液層の検査の流れを示したフローチャートである。なお、図9では、ステップS1からステップS12までの処理については、既述の図7に示した第1実施形態と同じであるため、適宜図示を省略している。 FIG. 12 is a flowchart showing the flow of inspection of the tear film layer of the eye E to be inspected by the smartphone 10 of the second embodiment. In FIG. 9, the processes from step S1 to step S12 are the same as those of the first embodiment shown in FIG. 7 described above, and thus the illustration is omitted as appropriate.

図12に示すように、第2実施形態のスマートフォン10では、本撮影の開始後から本撮影の終了までの間、上述の像検出部56による前眼部像35及び反射像36の検出(ステップS12)と、投影状態検出部70による投影状態の検出(ステップS13A)と、投影制御部72による投影制御(ステップS13B)と、が繰り返し実行される。 As shown in FIG. 12, in the smartphone 10 of the second embodiment, the front eye portion image 35 and the reflection image 36 are detected by the above-mentioned image detection unit 56 from the start of the main shooting to the end of the main shooting (step). S12), the projection state detection by the projection state detection unit 70 (step S13A), and the projection control by the projection control unit 72 (step S13B) are repeatedly executed.

その結果、第2実施形態のスマートフォン10では、ユーザとスマートフォン10との相対位置関係が変化した場合でも、投影制御部72による投影制御によって、表示パネル22から前眼部Efに投影されるパターン光28Lの投影状態(投影範囲R1及び明るさ)が特定の状態、すなわち一定状態に維持される。これにより、涙液層の各種状態の経時変化を正確に検出することできる。 As a result, in the smartphone 10 of the second embodiment, even when the relative positional relationship between the user and the smartphone 10 changes, the pattern light projected from the display panel 22 to the anterior segment Ef by the projection control by the projection control unit 72. The projection state (projection range R1 and brightness) of 28L is maintained in a specific state, that is, a constant state. This makes it possible to accurately detect changes over time in various states of the tear film.

[第3実施形態のスマートフォン]
図13は、上記各実施形態のスマートフォン10において表示パネル22から前眼部Efに投影されるパターン光28Lの照度分布を説明するための説明図である。
[Smartphone of the third embodiment]
FIG. 13 is an explanatory diagram for explaining the illuminance distribution of the pattern light 28L projected from the display panel 22 onto the anterior eye portion Ef in the smartphone 10 of each of the above embodiments.

図13に示すように、表示パネル22は一定の面積を有している。このため、表示パネル22の表示面上の各位置P(図中では2点のみ例示)から発光されるパターン光28Lが前眼部Efに入射する入射角度θiが、表示面上の位置Pごとに変化してしまう。そして、各位置Pから前眼部Efに入射するパターン光28Lの強度(光度)は、各位置Pの入射角度θiに応じてCOS(θi)で減ぜられる。これにより、前眼部Efに投影されるパターン光28Lの強度が位置Pごとに変化するため、前眼部Efに投影される反射像36の照度分布が不均一となり、例えば、反射像36の周辺部ほど暗くなってしまう。その結果、反射像36の画像データから涙液層の状態が正確に検出されないおそれがある。 As shown in FIG. 13, the display panel 22 has a certain area. Therefore, the incident angle θi at which the pattern light 28L emitted from each position P on the display surface of the display panel 22 (only two points are exemplified in the figure) is incident on the anterior eye portion Ef is set for each position P on the display surface. Will change to. Then, the intensity (luminosity) of the pattern light 28L incident on the anterior eye portion Ef from each position P is reduced by COS (θi) according to the incident angle θi of each position P. As a result, the intensity of the pattern light 28L projected on the anterior eye portion Ef changes for each position P, so that the illuminance distribution of the reflected image 36 projected on the anterior eye portion Ef becomes non-uniform. It gets darker in the peripheral area. As a result, the state of the tear film may not be accurately detected from the image data of the reflected image 36.

そこで、第3実施形態のスマートフォン10では、本撮影中(パターン光28Lの投影開始後の予備撮影中でも可)に、角膜にて反射されたパターン光28Lの反射像(反射光)の撮像素子32上での照度分布が均一になるように、表示パネル22に表示されるパターン28の表示制御を行う。 Therefore, in the smartphone 10 of the third embodiment, the image sensor 32 of the reflected image (reflected light) of the pattern light 28L reflected by the cornea during the main shooting (even during the preliminary shooting after the start of projection of the pattern light 28L). The display control of the pattern 28 displayed on the display panel 22 is performed so that the above illuminance distribution becomes uniform.

図14は、第3実施形態のスマートフォン10の電気的構成を示すブロック図である。図14に示すように、第3実施形態のスマートフォン10は、制御部46が照度分布検出部76として機能する点を除けば、上記第1実施形態のスマートフォン10と基本的に同じ構成である。このため、上記第1実施形態と機能又は構成上同一のものについては、同一符号を付してその説明は省略する。 FIG. 14 is a block diagram showing an electrical configuration of the smartphone 10 of the third embodiment. As shown in FIG. 14, the smartphone 10 of the third embodiment has basically the same configuration as the smartphone 10 of the first embodiment, except that the control unit 46 functions as the illuminance distribution detection unit 76. Therefore, those having the same function or configuration as the first embodiment are designated by the same reference numerals and the description thereof will be omitted.

第3実施形態の像検出部56は、第1実施形態の像検出部56と基本的に同じものである。ただし、第3実施形態の像検出部56は、本撮影中に像取得部54から撮影画像データ34が入力されるごとに、撮影画像データ34から検出した反射像36の画像データを照度分布検出部76へ出力する。 The image detection unit 56 of the third embodiment is basically the same as the image detection unit 56 of the first embodiment. However, the image detection unit 56 of the third embodiment detects the illuminance distribution of the image data of the reflection image 36 detected from the captured image data 34 each time the captured image data 34 is input from the image acquisition unit 54 during the main shooting. Output to unit 76.

照度分布検出部76は、本撮影中に像検出部56から反射像36の画像データが入力されるごとに、反射像36の画像データを解析してその画素ごとの照度を検出することで反射像36の照度分布を検出する。そして、照度分布検出部76は、反射像36の照度分布を検出するごとに、その検出結果を表示制御部50へ出力する。 Each time the image data of the reflected image 36 is input from the image detecting unit 56 during the main shooting, the illuminance distribution detecting unit 76 analyzes the image data of the reflected image 36 and detects the illuminance for each pixel to reflect the reflection. The illuminance distribution of the image 36 is detected. Then, each time the illuminance distribution detection unit 76 detects the illuminance distribution of the reflected image 36, the detection result is output to the display control unit 50.

第3実施形態の表示制御部50は、本撮影中に照度分布検出部76から反射像36の輝度分布の検出結果が入力されるごとに、この反射像36の照度分布が均一になるように、表示パネル22に表示されるパターン28の表示制御を実行して、パターン28の画素ごとの輝度調整を行う。 The display control unit 50 of the third embodiment makes the illuminance distribution of the reflected image 36 uniform every time the detection result of the luminance distribution of the reflected image 36 is input from the illuminance distribution detecting unit 76 during the main shooting. , The display control of the pattern 28 displayed on the display panel 22 is executed, and the brightness of each pixel of the pattern 28 is adjusted.

例えば、表示制御部50は、反射像36の照度分布に基づき、反射像36の中で輝度調整を要する対象画素領域を判別する判別処理と、表示パネル22に表示されているパターン28の各画素の中で対象画素領域に対応する画素の輝度を調整する輝度調整処理と、を行う。なお、輝度調整処理は、表示パネル22が液晶ディスプレイである場合には液晶素子の透過率の調整を行い、表示パネル22が有機ELディスプレイである場合には発光素子の発光強度の調整を行う。 For example, the display control unit 50 performs a discrimination process for discriminating a target pixel region that requires luminance adjustment in the reflected image 36 based on the illuminance distribution of the reflected image 36, and each pixel of the pattern 28 displayed on the display panel 22. The brightness adjustment process for adjusting the brightness of the pixel corresponding to the target pixel area is performed. The brightness adjustment process adjusts the transmittance of the liquid crystal element when the display panel 22 is a liquid crystal display, and adjusts the light emission intensity of the light emitting element when the display panel 22 is an organic EL display.

図15は、第3実施形態のスマートフォン10による被検眼Eの涙液層の検査の流れを示したフローチャートである。なお、図15では、ステップS1からステップS12までの処理については、既述の図7に示した第1実施形態と同じであるため、適宜図示を省略している。 FIG. 15 is a flowchart showing the flow of inspection of the tear film layer of the eye E to be inspected by the smartphone 10 of the third embodiment. In FIG. 15, the processes from step S1 to step S12 are the same as those of the first embodiment shown in FIG. 7 described above, and thus the illustration is omitted as appropriate.

図15に示すように、第3実施形態のスマートフォン10では、本撮影の開始後から本撮影の終了までの間、上述の像検出部56による前眼部像35及び反射像36の検出(ステップS12)と、照度分布検出部76による照度分布の検出(ステップS14A)と、表示制御部50による表示制御(ステップS14B)と、が繰り返し実行される。 As shown in FIG. 15, in the smartphone 10 of the third embodiment, the front eye portion image 35 and the reflection image 36 are detected by the above-mentioned image detection unit 56 from the start of the main shooting to the end of the main shooting (step). S12), the detection of the illuminance distribution by the illuminance distribution detection unit 76 (step S14A), and the display control by the display control unit 50 (step S14B) are repeatedly executed.

その結果、第3実施形態のスマートフォン10では、取得する前眼部Efの画像中の反射像36の照度分布を均一化することができる。また、本撮影中にステップS12からステップS14Bの処理を繰り返し実行することで、仮に本撮影中にユーザが顔又はスマートフォン10を動かしてしまった場合でも、反射像36の照度分布が均一化されている状態が維持される。 As a result, in the smartphone 10 of the third embodiment, the illuminance distribution of the reflected image 36 in the acquired image of the anterior eye portion Ef can be made uniform. Further, by repeatedly executing the processes from step S12 to step S14B during the main shooting, even if the user moves the face or the smartphone 10 during the main shooting, the illuminance distribution of the reflected image 36 is made uniform. The state of being is maintained.

[第4実施形態のスマートフォン]
図16は、第4実施形態のスマートフォン10の正面図である。上記各実施形態のスマートフォン10では、涙液層検査時にユーザに対してカメラ部20を注視させている。これに対して、図16に示すように、第4実施形態のスマートフォン10では、アライメント検出前から本撮影が終了するまでの間、検査制御部62が表示制御部50を制御して、表示パネル22に固視標78を表示させる。これにより、涙液層の検査中、ユーザに固視標78を固視させることができる。
[Smartphone of the fourth embodiment]
FIG. 16 is a front view of the smartphone 10 of the fourth embodiment. In the smartphone 10 of each of the above embodiments, the user is made to gaze at the camera unit 20 at the time of the tear film examination. On the other hand, as shown in FIG. 16, in the smartphone 10 of the fourth embodiment, the inspection control unit 62 controls the display control unit 50 from before the alignment detection to the end of the main shooting, and the display panel is displayed. Display the fixative 78 on 22. This allows the user to fix the fixative 78 during the examination of the tear film.

なお、第4実施形態のスマートフォン10は、表示パネル22で固視標78の表示を行う点を除けば、上記各実施形態のスマートフォン10と基本的に同じ構成である。このため、上記各実施形態と機能又は構成上同一のものについては、同一符号を付してその説明は省略する。 The smartphone 10 of the fourth embodiment has basically the same configuration as the smartphone 10 of each of the above-described embodiments, except that the fixative target 78 is displayed on the display panel 22. Therefore, those having the same function or configuration as each of the above embodiments are designated by the same reference numerals and the description thereof will be omitted.

また、この際に、第4実施形態の表示制御部50は、アライメント検出部58によるアライメント検出結果(指示決定部60によるアライメント指示)に基づき、表示パネル22に表示出力させる固視標78の表示態様(色又は形状等)を変化させる。この場合、表示パネル22は本発明の指示部として機能する。 At this time, the display control unit 50 of the fourth embodiment displays the fixative target 78 to be displayed and output on the display panel 22 based on the alignment detection result (alignment instruction by the instruction determination unit 60) by the alignment detection unit 58. Change the aspect (color or shape, etc.). In this case, the display panel 22 functions as an instruction unit of the present invention.

例えば、表示制御部50は、被検眼Eに対してカメラ部20がアライメントされている場合には緑色の固視標78を表示パネル22に表示させる。また、表示制御部50は、カメラ部20がアライメント位置から任意の一方向側にずれている場合には青色の固視標78を表示パネル22に表示させ、カメラ部20がアライメント位置から一方向側とは反対の他方向側にずれている場合には赤色の固視標78を表示パネル22に表示させる。なお、緑色、青色、及び赤色の固視標78を表示パネル22に表示させる代わりに、点状、リング状、及びクロス状の固視標78を表示パネル22に表示させてもよい。また、ずれた方向及び移動する方向を示す形状(矢印や三角形)などを固視標78として表示パネル22に表示させてもよい。 For example, the display control unit 50 displays the green fixative 78 on the display panel 22 when the camera unit 20 is aligned with the eye E to be inspected. Further, the display control unit 50 displays a blue fixative 78 on the display panel 22 when the camera unit 20 is deviated from the alignment position in any one direction, and the camera unit 20 is unidirectional from the alignment position. When it is deviated to the other direction opposite to the side, the red fixative 78 is displayed on the display panel 22. Instead of displaying the green, blue, and red fixatives 78 on the display panel 22, dot-shaped, ring-shaped, and cross-shaped fixatives 78 may be displayed on the display panel 22. Further, a shape (arrow or triangle) indicating a direction of deviation and a direction of movement may be displayed on the display panel 22 as a fixative 78.

このように、第4実施形態では、アライメント検出部58によるアライメント検出結果に応じて、表示パネル22に表示させる固視標78の表示態様を変化させることで、ユーザがアライメント状態を容易に把握することができる。その結果、被検眼Eに対してカメラ部20がアライメントされるようにユーザを誘導することができる。 As described above, in the fourth embodiment, the user can easily grasp the alignment state by changing the display mode of the fixative target 78 displayed on the display panel 22 according to the alignment detection result by the alignment detection unit 58. be able to. As a result, the user can be guided so that the camera unit 20 is aligned with the eye E to be inspected.

[第5実施形態のスマートフォン]
図17は、第5実施形態のスマートフォン10の正面図である。図5に示すように、第5実施形態のスマートフォン10は、表示パネル22として液晶ディスプレイ22Aが用いられ、且つカメラ部20の前面に偏光板80が設けられている点を除けば、上記各実施形態のスマートフォン10と基本的に同じ構成である。このため、上記各実施形態と機能又は構成上同一のものについては、同一符号を付してその説明は省略する。
[Smartphone of the fifth embodiment]
FIG. 17 is a front view of the smartphone 10 of the fifth embodiment. As shown in FIG. 5, in the smartphone 10 of the fifth embodiment, except that the liquid crystal display 22A is used as the display panel 22 and the polarizing plate 80 is provided on the front surface of the camera unit 20, each of the above-described embodiments is performed. It has basically the same configuration as the smartphone 10 in the form. Therefore, those having the same function or configuration as each of the above embodiments are designated by the same reference numerals and the description thereof will be omitted.

液晶ディスプレイ22Aは、公知のように、多数の液晶素子が二次元配列された液晶パネルを一対の偏光フィルタで挟み込んだ構造を有している。このため、液晶ディスプレイ22Aから前眼部Efに向けて投影されるパターン光28Lは、偏光フィルタを透過することで、特定の偏光方向に偏光された直線偏光となる。 As is known, the liquid crystal display 22A has a structure in which a liquid crystal panel in which a large number of liquid crystal elements are two-dimensionally arranged is sandwiched between a pair of polarizing filters. Therefore, the pattern light 28L projected from the liquid crystal display 22A toward the anterior segment Ef becomes linearly polarized light polarized in a specific polarization direction by passing through the polarization filter.

第5実施形態のカメラ部20は、偏光板80を通して前眼部Efの撮影を行う。この偏光板80は、パターン光28Lの偏光方向と同一(略同一を含む)の偏光方向の光のみを透過させる。ここで、前眼部Efの角膜表面で正反射されたパターン光28Lの正反射光は、角膜表面で正反射されているため、その偏光状態は崩れていない。このため、正反射光は、偏光板80を透過してカメラ部20に入射する。 The camera unit 20 of the fifth embodiment takes an image of the anterior eye portion Ef through the polarizing plate 80. The polarizing plate 80 transmits only light in the polarization direction that is the same as (including substantially the same) in the polarization direction of the pattern light 28L. Here, since the specularly reflected light of the pattern light 28L specularly reflected on the corneal surface of the anterior segment Ef is specularly reflected on the corneal surface, its polarization state is not disrupted. Therefore, the specularly reflected light passes through the polarizing plate 80 and is incident on the camera unit 20.

一方、瞼及び前眼部Efの虹彩等によるパターン光28Lの反射は拡散反射となるので、瞼及び虹彩等でのパターン光28Lの反射光はその偏光状態が崩れてしまう。このため、この反射光には、偏光板80を透過することができない偏光成分が含まれる。その結果、カメラ部20に入射する瞼及び虹彩等でのパターン光28Lの反射光の一部を偏光板80により減光させることができるので、この反射光の散乱成分に起因するノイズの発生が軽減される。これにより、高品質な撮影画像データ34が得られるので、涙液層の状態検出の精度が向上する。 On the other hand, since the reflection of the pattern light 28L by the iris of the eyelid and the anterior segment Ef becomes diffuse reflection, the polarized light of the pattern light 28L by the eyelid and the iris collapses. Therefore, this reflected light contains a polarizing component that cannot pass through the polarizing plate 80. As a result, a part of the reflected light of the pattern light 28L in the eyelids and the iris incident on the camera unit 20 can be dimmed by the polarizing plate 80, so that noise is generated due to the scattering component of the reflected light. It will be reduced. As a result, high-quality photographed image data 34 can be obtained, so that the accuracy of detecting the state of the tear film is improved.

[その他]
上記各実施形態で説明したスマートフォン10の機能又は構成を適宜組み合わせてもよい。
[others]
The functions or configurations of the smartphone 10 described in each of the above embodiments may be combined as appropriate.

図18は、上記各実施形態の制御部46の変形例を示したブロック図である。上記各実施形態では涙液層の状態検出までを実行しているが、例えば図18に示すように、制御部46を判定部82としても機能させてもよい。この判定部82は、状態検出部64により検出された涙液層の状態検出結果と、予め定めたドライアイの診断基準とを比較して、被検眼Eが専門家の診断を要する状態であるか否かを判定する。そして、判定部82は、判定結果を表示制御部50へ出力する。これにより、判定部82による判定結果が、表示制御部50によって表示パネル22に表示される。 FIG. 18 is a block diagram showing a modified example of the control unit 46 of each of the above embodiments. In each of the above embodiments, even the state detection of the tear film is executed, but as shown in FIG. 18, for example, the control unit 46 may also function as the determination unit 82. The determination unit 82 compares the state detection result of the tear film detected by the state detection unit 64 with a predetermined diagnostic standard for dry eye, and the eye E to be inspected is in a state requiring an expert diagnosis. Judge whether or not. Then, the determination unit 82 outputs the determination result to the display control unit 50. As a result, the determination result by the determination unit 82 is displayed on the display panel 22 by the display control unit 50.

また、判定部82は、被検眼Eが専門家の診断を要する状態であると判定した場合、ユーザの承認操作を経た後、撮影画像データ34及び涙液層の検査結果等を、通信部42から所定の医療機関のサーバ等に向けてデータ送信させる。 Further, when the determination unit 82 determines that the eye E to be inspected is in a state requiring expert diagnosis, the determination unit 82 obtains the photographed image data 34, the inspection result of the tear film, and the like after the user's approval operation. To send data to the server of a predetermined medical institution.

上記各実施形態では、本発明の発光部として表示パネル22、すなわち表示装置を例に挙げて説明したが、例えば照明光源等の各種発光部を用いてもよい。また、上記各実施形態では、パターン光28Lとして白色光を例に挙げて説明したが、白色以外の各色の光、或いは点滅光(点滅するごとに色が変化してもよい)等の任意の光であってもよい。 In each of the above embodiments, the display panel 22, that is, the display device has been described as an example of the light emitting unit of the present invention, but various light emitting units such as an illumination light source may be used. Further, in each of the above embodiments, white light has been described as an example of the pattern light 28L, but any color other than white light, flashing light (the color may change each time it flashes), or the like is arbitrary. It may be light.

上記実施形態では、本発明の撮影部としてカメラ部20(インカメラ)を例に挙げて説明したが、電子撮影機能を有するものであれば特に限定はされない。 In the above embodiment, the camera unit 20 (in-camera) has been described as an example of the photographing unit of the present invention, but the present invention is not particularly limited as long as it has an electronic photographing function.

上記各実施形態では、例えば図7に示したように状態検出部64による解析(涙液層の条件検出)を本撮影後に実行しているが、本撮影で新たな撮影画像データ34が撮影されるごとに状態検出部64による解析を実行してもよい。 In each of the above embodiments, for example, as shown in FIG. 7, analysis by the state detection unit 64 (condition detection of the tear film) is performed after the main shooting, but new shot image data 34 is shot in the main shooting. The analysis by the state detection unit 64 may be executed every time.

上記各実施形態では、涙液層の状態として、涙液層の厚みと、ドライスポットの形状及び形成位置とを検出する場合を例に挙げて説明したが、例えば、涙液層破壊時間等の涙液層の他の状態を検出してもよい。 In each of the above embodiments, the case where the thickness of the tear layer and the shape and formation position of the dry spot are detected as the state of the tear layer has been described as an example, but for example, the tear layer destruction time and the like have been described. Other conditions of the tear film may be detected.

上記各実施形態では、本発明の携帯端末としてスマートフォン10を例に挙げて説明したが、携帯電話機、タブレット端末、携帯型のパーソナルコンピュータ、及び自撮り撮影が可能なデジタルカメラ等のような撮影部及び発光部(表示装置)を有する各種の携帯端末に本発明を適用することができる。 In each of the above embodiments, the smartphone 10 has been described as an example of the mobile terminal of the present invention, but a shooting unit such as a mobile phone, a tablet terminal, a portable personal computer, and a digital camera capable of self-shooting. The present invention can be applied to various mobile terminals having a light emitting unit (display device).

10…スマートフォン,
12…筐体,
14…表示入力部,
16…スピーカ,
20…カメラ部,
22…表示パネル,
22A…液晶ディスプレイ,
24…操作パネル,
28…パターン,
28L…パターン光,
34…撮影画像データ,
35…前眼部像,
36…反射像,
46…制御部,
50…表示制御部,
52…音声制御部,
56…像検出部,
58…アライメント検出部,
60…指示決定部,
62…検査制御部,
64…状態検出部,
70…投影状態検出部,
72…投影制御部,
76…照度分布検出部,
78…固視標,
80…偏光板
10 ... Smartphone,
12 ... Housing,
14 ... Display input unit,
16 ... Speaker,
20 ... Camera part,
22 ... Display panel,
22A ... Liquid crystal display,
24 ... Operation panel,
28 ... pattern,
28L ... Pattern light,
34 ... Photographed image data,
35 ... Anterior segment image,
36 ... Reflection image,
46 ... Control unit,
50 ... Display control unit,
52 ... Voice control unit,
56 ... Image detector,
58 ... Alignment detector,
60 ... Instruction decision unit,
62 ... Inspection control unit,
64 ... Status detector,
70 ... Projection state detector,
72 ... Projection control unit,
76 ... Illuminance distribution detector,
78 ... Fixative,
80 ... Polarizing plate

Claims (13)

筐体と、
前記筐体の一面側に設けられ、予め定めたパターン光を発光して、前記パターン光を被検眼の前眼部に投影する発光部と、
前記筐体の一面側に設けられ、前記発光部からの前記パターン光が投影されている前記前眼部を撮影する撮影部と、
前記撮影部により撮影された撮影画像から、前記パターン光の反射像を検出する像検出部と、
前記像検出部により検出された前記反射像を解析して、前記前眼部の角膜表面を覆う涙液層の状態を検出する状態検出部と、
を備え
前記発光部は、前記パターン光の発光態様を調整可能であり、
前記像検出部が、前記撮影画像から前記反射像と前記前眼部に対応する前眼部像とを検出し、
前記像検出部の検出結果に基づき、前記前眼部に対する前記パターン光の投影状態を検出する投影状態検出部と、
前記投影状態検出部の検出結果に基づき、前記発光部の前記発光態様を調整して、前記パターン光の投影状態を特定の状態に維持させる投影制御部と、
を備える携帯端末。
With the housing
A light emitting unit provided on one surface side of the housing, which emits a predetermined pattern light and projects the pattern light onto the anterior eye portion of the eye to be inspected.
An imaging unit provided on one surface side of the housing and photographing the anterior eye portion on which the pattern light from the light emitting unit is projected.
An image detection unit that detects a reflected image of the pattern light from the captured image captured by the imaging unit, and an image detection unit.
A state detection unit that analyzes the reflection image detected by the image detection unit to detect the state of the tear film layer covering the corneal surface of the anterior eye portion, and a state detection unit.
Equipped with
The light emitting unit can adjust the light emitting mode of the pattern light.
The image detection unit detects the reflected image and the anterior eye portion image corresponding to the anterior eye portion from the captured image.
A projection state detection unit that detects the projection state of the pattern light on the front eye portion based on the detection result of the image detection unit, and a projection state detection unit.
A projection control unit that adjusts the light emission mode of the light emitting unit based on the detection result of the projection state detection unit to maintain the projection state of the pattern light in a specific state.
A mobile terminal equipped with.
前記投影状態検出部が、前記投影状態として、少なくとも前記前眼部に投影される前記パターン光の投影範囲を検出し、
前記投影制御部が、前記発光態様の調整として、少なくとも前記パターン光の発光範囲の調整を行う請求項に記載の携帯端末。
The projection state detecting unit detects at least the projection range of the pattern light projected on the anterior eye portion as the projection state.
The mobile terminal according to claim 1 , wherein the projection control unit adjusts at least the emission range of the pattern light as the adjustment of the emission mode.
前記発光部が前記パターン光に対応するパターンを表示する表示装置であり、
前記像検出部により検出された前記反射像の照度分布を検出する照度分布検出部と、
前記照度分布検出部の検出結果に基づき、前記表示装置による前記パターンの表示を制御して、前記照度分布を均一にさせる表示制御部と、
を備える請求項1又は2に記載の携帯端末。
The light emitting unit is a display device that displays a pattern corresponding to the pattern light.
An illuminance distribution detection unit that detects the illuminance distribution of the reflected image detected by the image detection unit, and an illuminance distribution detection unit.
A display control unit that controls the display of the pattern by the display device based on the detection result of the illuminance distribution detection unit to make the illuminance distribution uniform.
The mobile terminal according to claim 1 or 2 .
筐体と、With the housing
前記筐体の一面側に設けられ、予め定めたパターン光を発光して、前記パターン光を被検眼の前眼部に投影する発光部と、A light emitting unit provided on one surface side of the housing, which emits a predetermined pattern light and projects the pattern light onto the anterior eye portion of the eye to be inspected.
前記筐体の一面側に設けられ、前記発光部からの前記パターン光が投影されている前記前眼部を撮影する撮影部と、An imaging unit provided on one surface side of the housing and photographing the anterior eye portion on which the pattern light from the light emitting unit is projected.
前記撮影部により撮影された撮影画像から、前記パターン光の反射像を検出する像検出部と、An image detection unit that detects a reflected image of the pattern light from the captured image captured by the photographing unit, and an image detecting unit.
前記像検出部により検出された前記反射像を解析して、前記前眼部の角膜表面を覆う涙液層の状態を検出する状態検出部と、A state detection unit that analyzes the reflection image detected by the image detection unit to detect the state of the tear film layer covering the corneal surface of the anterior eye portion, and a state detection unit.
を備え、Equipped with
前記発光部が前記パターン光に対応するパターンを表示する表示装置であり、The light emitting unit is a display device that displays a pattern corresponding to the pattern light.
前記像検出部により検出された前記反射像の照度分布を検出する照度分布検出部と、An illuminance distribution detection unit that detects the illuminance distribution of the reflected image detected by the image detection unit, and an illuminance distribution detection unit.
前記照度分布検出部の検出結果に基づき、前記表示装置による前記パターンの表示を制御して、前記照度分布を均一にさせる表示制御部と、A display control unit that controls the display of the pattern by the display device based on the detection result of the illuminance distribution detection unit to make the illuminance distribution uniform.
を備える携帯端末。A mobile terminal equipped with.
前記発光部が、前記パターン光に対応するパターンと、固視標とを表示する表示装置である請求項1からのいずれか1項に記載の携帯端末。 The mobile terminal according to any one of claims 1 to 4 , wherein the light emitting unit is a display device that displays a pattern corresponding to the pattern light and a fixative. 筐体と、With the housing
前記筐体の一面側に設けられ、予め定めたパターン光を発光して、前記パターン光を被検眼の前眼部に投影する発光部と、A light emitting unit provided on one surface side of the housing, which emits a predetermined pattern light and projects the pattern light onto the anterior eye portion of the eye to be inspected.
前記筐体の一面側に設けられ、前記発光部からの前記パターン光が投影されている前記前眼部を撮影する撮影部と、An imaging unit provided on one surface side of the housing and photographing the anterior eye portion on which the pattern light from the light emitting unit is projected.
前記撮影部により撮影された撮影画像から、前記パターン光の反射像を検出する像検出部と、An image detection unit that detects a reflected image of the pattern light from the captured image captured by the photographing unit, and an image detecting unit.
前記像検出部により検出された前記反射像を解析して、前記前眼部の角膜表面を覆う涙液層の状態を検出する状態検出部と、A state detection unit that analyzes the reflection image detected by the image detection unit to detect the state of the tear film layer covering the corneal surface of the anterior eye portion, and a state detection unit.
を備え、Equipped with
前記発光部が、前記パターン光に対応するパターンと、固視標とを表示する表示装置である携帯端末。A mobile terminal in which the light emitting unit is a display device that displays a pattern corresponding to the pattern light and a fixative.
前記像検出部が前記撮影画像から前記前眼部に対応する前眼部像を検出し、
前記像検出部により検出された前記前眼部像に基づき、前記被検眼に対する前記撮影部のアライメント状態を検出するアライメント検出部と、
前記アライメント検出部の検出結果に基づき、前記表示装置を制御して前記固視標の表示態様を変化させる表示制御部と、
を備える請求項6に記載の携帯端末。
The image detection unit detects an anterior eye portion image corresponding to the anterior eye portion from the captured image,
An alignment detection unit that detects the alignment state of the imaging unit with respect to the eye to be inspected based on the image of the anterior eye portion detected by the image detection unit.
A display control unit that controls the display device to change the display mode of the fixative based on the detection result of the alignment detection unit.
The mobile terminal according to claim 6.
前記発光部が、特定の偏光方向に偏光されている前記パターン光を前記前眼部に投影させる液晶ディスプレイであり、
前記撮影部が、前記特定の偏光方向の光を透過させる偏光板を通して、前記前眼部を撮影する請求項1から7のいずれか1項に記載の携帯端末。
The light emitting portion is a liquid crystal display that projects the pattern light polarized in a specific polarization direction onto the front eye portion.
The mobile terminal according to any one of claims 1 to 7, wherein the photographing unit photographs the anterior eye portion through a polarizing plate that transmits light in the specific polarization direction.
筐体と、With the housing
前記筐体の一面側に設けられ、予め定めたパターン光を発光して、前記パターン光を被検眼の前眼部に投影する発光部と、A light emitting unit provided on one surface side of the housing, which emits a predetermined pattern light and projects the pattern light onto the anterior eye portion of the eye to be inspected.
前記筐体の一面側に設けられ、前記発光部からの前記パターン光が投影されている前記前眼部を撮影する撮影部と、An imaging unit provided on one surface side of the housing and photographing the anterior eye portion on which the pattern light from the light emitting unit is projected.
前記撮影部により撮影された撮影画像から、前記パターン光の反射像を検出する像検出部と、An image detection unit that detects a reflected image of the pattern light from the captured image captured by the photographing unit, and an image detecting unit.
前記像検出部により検出された前記反射像を解析して、前記前眼部の角膜表面を覆う涙液層の状態を検出する状態検出部と、A state detection unit that analyzes the reflection image detected by the image detection unit to detect the state of the tear film layer covering the corneal surface of the anterior eye portion, and a state detection unit.
を備え、Equipped with
前記発光部が、特定の偏光方向に偏光されている前記パターン光を前記前眼部に投影させる液晶ディスプレイであり、The light emitting portion is a liquid crystal display that projects the pattern light polarized in a specific polarization direction onto the front eye portion.
前記撮影部が、前記特定の偏光方向の光を透過させる偏光板を通して、前記前眼部を撮影する携帯端末。A portable terminal in which the photographing unit photographs the anterior eye portion through a polarizing plate that transmits light in the specific polarization direction.
前記状態検出部が、前記反射像から前記角膜表面に発生する干渉像を検出し、前記干渉像に基づき、前記涙液層の状態として前記涙液層の厚みを検出する請求項1からのいずれか1項に記載の携帯端末。 13 . The mobile terminal according to any one of the items. 筐体と、With the housing
前記筐体の一面側に設けられ、予め定めたパターン光を発光して、前記パターン光を被検眼の前眼部に投影する発光部と、A light emitting unit provided on one surface side of the housing, which emits a predetermined pattern light and projects the pattern light onto the anterior eye portion of the eye to be inspected.
前記筐体の一面側に設けられ、前記発光部からの前記パターン光が投影されている前記前眼部を撮影する撮影部と、An imaging unit provided on one surface side of the housing and photographing the anterior eye portion on which the pattern light from the light emitting unit is projected.
前記撮影部により撮影された撮影画像から、前記パターン光の反射像を検出する像検出部と、An image detection unit that detects a reflected image of the pattern light from the captured image captured by the photographing unit, and an image detecting unit.
前記像検出部により検出された前記反射像を解析して、前記前眼部の角膜表面を覆う涙液層の状態を検出する状態検出部と、A state detection unit that analyzes the reflection image detected by the image detection unit to detect the state of the tear film layer covering the corneal surface of the anterior eye portion, and a state detection unit.
を備え、Equipped with
前記状態検出部が、前記反射像から前記角膜表面に発生する干渉像を検出し、前記干渉像に基づき、前記涙液層の状態として前記涙液層の厚みを検出する携帯端末。A mobile terminal in which the state detection unit detects an interference image generated on the corneal surface from the reflection image, and detects the thickness of the tear film as the state of the tear film based on the interference image.
前記像検出部が前記撮影画像から前記前眼部に対応する前眼部像を検出し、
前記像検出部により検出された前記前眼部像に基づき、前記被検眼に対する前記撮影部のアライメント状態を検出するアライメント検出部と、
前記アライメント検出部の検出結果に基づき、前記被検眼と前記撮影部との相対的な位置合わせの指標となるアライメント指示を出力する指示部と、
を備える請求項1から11のいずれか1項に記載の携帯端末。
The image detection unit detects an anterior eye portion image corresponding to the anterior eye portion from the captured image,
An alignment detection unit that detects the alignment state of the imaging unit with respect to the eye to be inspected based on the image of the anterior eye portion detected by the image detection unit.
An instruction unit that outputs an alignment instruction that is an index of relative alignment between the eye to be inspected and the imaging unit based on the detection result of the alignment detection unit.
The mobile terminal according to any one of claims 1 to 11 .
筐体の一面側に設けられた発光部から予め定めたパターン光を発光して、前記パターン光を被検眼の前眼部に投影する投影ステップと、
前記筐体の一面側に設けられた撮影部により、前記発光部からの前記パターン光が投影されている前記前眼部を撮影する撮影ステップと、
前記撮影ステップで撮影された撮影画像から、前記パターン光の反射像を検出する像検出ステップと、
前記像検出ステップで検出された前記反射像を解析して、前記前眼部の角膜表面を覆う涙液層の状態を検出する状態検出ステップと、
を有し、
前記発光部は、前記パターン光の発光態様を調整可能であり、
前記像検出ステップでは、前記撮影画像から前記反射像と前記前眼部に対応する前眼部像とを検出し、
前記像検出ステップの検出結果に基づき、前記前眼部に対する前記パターン光の投影状態を検出する投影状態検出ステップと、
前記投影状態検出ステップの検出結果に基づき、前記発光部の前記発光態様を調整して、前記パターン光の投影状態を特定の状態に維持させる投影制御ステップと、
を有する携帯端末の制御方法。
A projection step in which a predetermined pattern light is emitted from a light emitting portion provided on one surface side of the housing and the pattern light is projected onto the anterior eye portion of the eye to be inspected.
A photographing step of photographing the anterior eye portion on which the pattern light from the light emitting portion is projected by the photographing unit provided on one surface side of the housing.
An image detection step of detecting a reflected image of the pattern light from the captured image captured in the imaging step,
A state detection step of analyzing the reflected image detected in the image detection step to detect the state of the tear film layer covering the corneal surface of the anterior eye portion, and a state detection step.
Have,
The light emitting unit can adjust the light emitting mode of the pattern light.
In the image detection step, the reflected image and the anterior eye portion image corresponding to the anterior eye portion are detected from the captured image.
A projection state detection step for detecting the projection state of the pattern light on the anterior eye portion based on the detection result of the image detection step, and a projection state detection step.
Based on the detection result of the projection state detection step, the projection control step of adjusting the light emission mode of the light emitting unit to maintain the projection state of the pattern light in a specific state,
A method of controlling a mobile terminal having .
JP2018049961A 2018-03-16 2018-03-16 Mobile terminal and control method of mobile terminal Active JP7096020B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018049961A JP7096020B2 (en) 2018-03-16 2018-03-16 Mobile terminal and control method of mobile terminal
JP2022028126A JP7214908B2 (en) 2018-03-16 2022-02-25 Mobile terminal and control method for mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018049961A JP7096020B2 (en) 2018-03-16 2018-03-16 Mobile terminal and control method of mobile terminal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022028126A Division JP7214908B2 (en) 2018-03-16 2022-02-25 Mobile terminal and control method for mobile terminal

Publications (2)

Publication Number Publication Date
JP2019155011A JP2019155011A (en) 2019-09-19
JP7096020B2 true JP7096020B2 (en) 2022-07-05

Family

ID=67992942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018049961A Active JP7096020B2 (en) 2018-03-16 2018-03-16 Mobile terminal and control method of mobile terminal

Country Status (1)

Country Link
JP (1) JP7096020B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11377718B2 (en) 2018-10-12 2022-07-05 Daido Steel Co., Ltd. Steel for mold
WO2021066124A1 (en) * 2019-10-04 2021-04-08 興和株式会社 Tear film imaging device
WO2022092134A1 (en) * 2020-10-28 2022-05-05 ライオン株式会社 Examination method, machine learning execution method, examination device, and machine learning execution method
JP7094468B1 (en) 2020-12-25 2022-07-01 ライオン株式会社 Inspection methods

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167002A (en) 2004-12-13 2006-06-29 Tomey Corporation Ophthalmologic apparatus
WO2016067365A1 (en) 2014-10-28 2016-05-06 パイオニア株式会社 Observation device, observation method, and computer program
WO2016067332A1 (en) 2014-10-27 2016-05-06 パイオニア株式会社 Observation device, observation method, and computer program
WO2016189711A1 (en) 2015-05-27 2016-12-01 糧三 齋藤 Stress evaluation program for mobile terminal and mobile terminal provided with program
WO2017209024A1 (en) 2016-05-30 2017-12-07 興和株式会社 Method and device for evaluating tear state
JP2019025257A (en) 2017-08-04 2019-02-21 エルライズ株式会社 Ophthalmologic measurement apparatus and ophthalmologic measurement system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167002A (en) 2004-12-13 2006-06-29 Tomey Corporation Ophthalmologic apparatus
WO2016067332A1 (en) 2014-10-27 2016-05-06 パイオニア株式会社 Observation device, observation method, and computer program
WO2016067365A1 (en) 2014-10-28 2016-05-06 パイオニア株式会社 Observation device, observation method, and computer program
WO2016189711A1 (en) 2015-05-27 2016-12-01 糧三 齋藤 Stress evaluation program for mobile terminal and mobile terminal provided with program
WO2017209024A1 (en) 2016-05-30 2017-12-07 興和株式会社 Method and device for evaluating tear state
JP2019025257A (en) 2017-08-04 2019-02-21 エルライズ株式会社 Ophthalmologic measurement apparatus and ophthalmologic measurement system

Also Published As

Publication number Publication date
JP2019155011A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
JP7096020B2 (en) Mobile terminal and control method of mobile terminal
JP5704879B2 (en) Fundus observation device
JP4824400B2 (en) Ophthalmic equipment
US10307058B2 (en) Ophthalmologic apparatus
JP6716752B2 (en) Ophthalmic equipment
JP2015085044A (en) Ophthalmology imaging apparatus, ophthalmology imaging system, and ophthalmology imaging program
JP2018110726A (en) Subjective optometry apparatus and subjective optometry program
KR101647287B1 (en) Ophthalmologic apparatus and ophthalmologic method
JP2018047049A (en) Subjective optometer and subjective optometric program
JP4766919B2 (en) Ophthalmic measuring method and ophthalmic measuring apparatus
JP6853496B2 (en) Optometry device and optometry program
JP6723843B2 (en) Ophthalmic equipment
JP6892540B2 (en) Ophthalmic equipment
JP6853495B2 (en) Subjective optometry device and subjective optometry program
JP7283391B2 (en) eye refractive power measuring device
WO2020050233A1 (en) Ocular refractivity measuring device
JP7214908B2 (en) Mobile terminal and control method for mobile terminal
JP2020036741A (en) Ophthalmologic device and operation method thereof
JP2018038788A (en) Subjective optometer and subjective optometry program
JP6825338B2 (en) Subjective optometry device and subjective optometry program
JPWO2020111103A1 (en) Ophthalmic equipment
JP6140947B2 (en) Ophthalmic apparatus and ophthalmic imaging method
JP7344351B2 (en) Ophthalmological equipment and its operating method
JP7078187B2 (en) Subjective optometry device and subjective optometry program
JP7283932B2 (en) ophthalmic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220623

R150 Certificate of patent or registration of utility model

Ref document number: 7096020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150