WO2023112994A1 - 瞳孔径測定機能付きアイウェア - Google Patents

瞳孔径測定機能付きアイウェア Download PDF

Info

Publication number
WO2023112994A1
WO2023112994A1 PCT/JP2022/046276 JP2022046276W WO2023112994A1 WO 2023112994 A1 WO2023112994 A1 WO 2023112994A1 JP 2022046276 W JP2022046276 W JP 2022046276W WO 2023112994 A1 WO2023112994 A1 WO 2023112994A1
Authority
WO
WIPO (PCT)
Prior art keywords
pupil diameter
display
eyewear
subject
unit
Prior art date
Application number
PCT/JP2022/046276
Other languages
English (en)
French (fr)
Inventor
正 臼倉
八郎 弓削
Original Assignee
株式会社夏目綜合研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社夏目綜合研究所 filed Critical 株式会社夏目綜合研究所
Priority to JP2023567830A priority Critical patent/JPWO2023112994A1/ja
Publication of WO2023112994A1 publication Critical patent/WO2023112994A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils

Definitions

  • the present invention relates to eyewear with a pupil diameter measuring function.
  • a pupil imaging device is described in Utility Model Registration No. 3137375.
  • This pupil imaging device can observe the photoreaction of the pupil to light stimulation inside the light-shielding goggles.
  • this device uses light-shielding goggles, it does not take into account the brightness of light other than the light stimulus in the light-shielding goggles.
  • this device uses light-shielding goggles, it is not suitable for eyewear other than light-shielding goggles.
  • an object of the present invention is to provide eyewear that can appropriately measure the pupil diameter in consideration of the screen luminance.
  • a certain invention described in this specification is based on the knowledge that the subject's pupil diameter after luminance correction can be obtained because it has a screen luminance acquisition unit for obtaining screen luminance.
  • the present invention relates to eyewear 1 for pupil diameter measurement.
  • a pupil diameter measuring eyewear 1 has a display screen 3 and is a tool for measuring a subject's pupil diameter.
  • This pupil diameter measuring eyewear 1 includes a screen luminance acquisition unit 5 for obtaining screen luminance, which is information about the brightness of the display screen 3, a photographing unit 7 for obtaining a subject image, which is an image including the subject's pupils;
  • a pupil diameter calculation unit 9 that obtains the pupil diameter of the subject after luminance correction using the screen luminance and the subject image; have
  • the pupil diameter measuring eyewear 1 may be a head-mounted display (preferably a cross-reality head-mounted display), a helmet, goggles, glasses, or sunglasses.
  • a preferable example of the pupil diameter measuring eyewear 1 includes a sight line position acquisition unit 11 for obtaining the sight line position on the display screen 3 of the subject, a point-of-interest analysis unit 13 that determines a point of interest of the subject in the display image displayed on the display screen 3 by using the line-of-sight position acquired by the line-of-sight position acquisition unit 11 and the pupil diameter of the subject after brightness correction; It further has
  • This example may further include a display information acquisition unit 15 that acquires display information for analysts to display the display screen 3 on the display unit for analysts.
  • An example of display information for an analyst may be a display of a subject's attention point in a display image displayed on the display screen 3 .
  • Another example of the display information for the analyst is to display the analyzed gaze position acquired by the gaze position analysis unit on the display screen 3 displayed on the display unit for the analyst, and the pupil diameter calculation unit to calculate the pupil This is information for changing the color, size, or shape of the line-of-sight position displayed on the analyst's display section based on the diameter.
  • the present invention can provide eyewear that can appropriately measure pupil diameter in consideration of screen brightness.
  • FIG. 1 is an example of a block diagram of eyewear for pupil diameter measurement of the present invention.
  • FIG. 2 is a graph in place of a drawing showing an example of measuring the pupil diameter of a subject while running a commercial moving image on the display screen.
  • FIGS. 2(a) and 2(b) are graphs showing changes in the pupil diameter of the subject when a commercial with a high interest to the subject and a commercial with a low interest are displayed, respectively.
  • FIG. 3 is a graph instead of a drawing showing an example of medical diagnosis using pupillary response.
  • Fig. 3(a) is a graph of a healthy 73-year-old male, Fig.
  • FIG. 3(b) is a graph of a 59-year-old male with dizziness (Meniere's disease patient), and Fig. 3(c) is a graph of a 76-year-old male. Parkinson's disease patient.
  • FIG. 4 is a diagram showing a display example of the display unit for analyst.
  • the graph in FIG. 5 is a graph showing the temporal displacement of the pupil diameter when the subject perceives the content.
  • FIG. 6 shows graphical data of the time transition of the attention level of each subject and its average value among the output file data.
  • the horizontal axis of the graph in FIG. 6 is the time axis, and the vertical axis is the attention level of the subject.
  • FIG. 7 illustrates the attention degree total distribution data for each subject among the output file data.
  • the pupil diameter measuring eyewear 1 described below may basically have hardware such as a control section, a calculation section, a storage section, an input section, and an output section.
  • the control unit Based on the information input from the input unit, the control unit causes the calculation unit to execute a predetermined calculation process according to the program stored in the storage unit, stores the calculation result in the storage unit as appropriate, and outputs the result to the output unit. to control.
  • Examples of the control unit and arithmetic unit are processors such as CPUs and GPUs.
  • the storage function of the storage section can be realized by nonvolatile memories such as HDD and SSD, and the memory function of the storage section can be realized by volatile memories such as RAM and DRAM.
  • Examples of input devices are communication modules for receiving information via a network and operating modules such as mice and keyboards.
  • Examples of output devices are communication modules for transmitting information over a network, displays, speakers, and the like.
  • the storage unit may store a control program or various types of information.
  • the control unit reads out the control program stored in the storage unit. Then, the control unit appropriately reads the information stored in the storage unit and notifies it to the calculation unit.
  • the control unit conveys appropriately input information to the calculation unit.
  • the calculation unit performs calculation processing using the received various information, and stores the information in the storage unit.
  • the control unit reads the calculation result stored in the storage unit and outputs it from the output unit.
  • Various processes are executed in this way. Each means executes these various processes.
  • FIG. 1 is an example of a block diagram of eyewear for pupil diameter measurement of the present invention.
  • this eyewear 1 for pupil diameter measurement has a display screen 3, a screen luminance acquisition section 5, an imaging section 7, and a pupil diameter calculation section 9.
  • the eyewear 1 for pupil diameter measurement may further include a line-of-sight position acquisition section 11 , an attention point analysis section 13 , and a display information acquisition section 15 .
  • the obtained pupil diameter is used, for example, in evaluation of moving images (for example, commercials), questionnaire surveys, evaluation of product displays, evaluation of architectural design, psychological analysis of games, emotional analysis of displayed information, autonomic nerve conditions, It is used for various purposes such as dementia situations, examination of brain diseases, brain status and psychoanalysis.
  • a pupil diameter measuring eyewear 1 has a display screen 3 and is a tool for measuring a subject's pupil diameter.
  • the subject is usually human.
  • the pupillary diameter is usually that of a human pupil.
  • the main body of the eyewear 1 for pupil diameter measurement may be any one that can measure the pupil, can be worn on the body, and can be carried.
  • Examples of the main body of the pupil diameter measuring eyewear 1 may be a head-mounted display (preferably a cross-reality head-mounted display), a helmet, goggles, spectacles and sunglasses.
  • Examples of cross-reality (XR) are VR (virtual reality), AR (augmented reality) and MR (mixed reality).
  • the pupil diameter measuring eyewear 1 may be for games, for work, for displaying television or video, or for virtual travel. may
  • the pupil diameter measuring eyewear 1 has a display screen 3 .
  • the display screen 3 is a display unit such as a liquid crystal display or plasma display.
  • the display screen displays various information according to instructions from the control unit. Examples of content displayed on the display screen are moving images and still images.
  • the screen luminance acquisition unit 5 is an element for obtaining screen luminance, which is information about the brightness of the display screen 3 . If the eyewear 1 for pupil diameter measurement is a light shielding system such as light shielding goggles, screen luminance may be obtained based on display information displayed on the display screen 3 . Even in this case, the screen brightness of screen brightness 3 may be obtained using a sensor.
  • the photographing unit 7 is an element for obtaining a subject image, which is an image including the subject's pupils.
  • An example of the imaging unit 7 is a camera in the eyewear 1 for pupil diameter measurement.
  • a subject image can be photographed by a photographing unit 7 such as a camera.
  • the target person image may be a still image or a moving image.
  • an example of the photographing unit 7 is also described in Japanese utility model registration No. 3137375.
  • the photographing unit 7 has a near-infrared irradiation device that irradiates near-infrared rays to the subject (a region including the eyes) so as to facilitate acquisition of the subject's image.
  • the camera may be a near-infrared camera.
  • the pupil diameter calculator 9 is an element for calculating the pupil diameter of the subject after luminance correction using the screen luminance and the subject image.
  • An example of a method for obtaining the pupil diameter from a camera image is described in Japanese Patent No. 6651536.
  • the obtained pupil diameter of the subject after luminance correction is appropriately stored in the storage unit. At this time, it is preferable to store in the storage unit together with the identification number of the content (video) displayed on the display unit. In this way, the content display timing and the pupil diameter change timing can be stored in association with each other.
  • the pupil diameter measuring eyewear 1 can obtain the subject's pupil diameter after luminance correction in consideration of the screen luminance. Investigating the change in pupil diameter over time allows us to grasp the subject's psychological state.
  • the machine learning unit 17 is allowed to machine-learn information about the inspection target. Then, the obtained information on the subject's pupil diameter after luminance correction is input to the machine learning unit. Then, the machine learning unit performs various target evaluations and diagnoses based on the input pupil diameter (change over time) of the subject after luminance correction. At this time, if the subject's personal information (age, gender, pre-existing conditions, etc.) is entered, more accurate evaluation and examination can be performed.
  • FIG. 2 is a graph that replaces a drawing and shows an example of measuring the pupil diameter of a subject while running a commercial video on the display screen.
  • FIGS. 2(a) and 2(b) are graphs showing changes in the pupil diameter of the subject when a commercial with a high interest to the subject and a commercial with a low interest are displayed, respectively.
  • the vertical axis is the pupil diameter (arbitrary unit), and the horizontal axis is the presentation time (seconds). From FIG. 2, it can be seen that the subject's interest can be analyzed by using this eyewear 1 for pupil diameter measurement.
  • Fig. 3 is a graph in place of a drawing showing an example of medical diagnosis using pupillary response.
  • Figure 3 (a) is a graph of a healthy 73-year-old male
  • Figure 3 (b) is a graph of a 59-year-old male with vertigo
  • Figure 3 (c) is a graph of a 76-year-old male Parkinson's disease patient.
  • the vertical axis is the pupil diameter (arbitrary unit)
  • the horizontal axis is the presentation time (seconds).
  • the line-of-sight position acquisition unit 11 is an element for obtaining the line-of-sight position on the display screen 3 of the subject.
  • the line-of-sight position acquisition unit 11 analyzes the target person's viewpoint position from the image captured by the imaging unit, the video displayed on the display screen, and information on the target person's eye movement. Methods for analyzing a subject's viewpoint position are known.
  • the line-of-sight position acquisition unit 11 acquires the eye movement image captured by the imaging unit. Next, if the content perceived by the subject is video information such as a moving image or a still image, the video information is acquired as the video information of the content.
  • the line-of-sight position acquisition unit 11 then identifies the viewing position of the subject in the video from the video information and the eye movement video of the content, and stores the information in the storage unit. By outputting the information stored in the storage unit, it is possible to display which part of the content (video) displayed on the display screen was viewed by the subject. This information can be used for various analyses.
  • the point-of-interest analysis unit 13 uses the line-of-sight position acquired by the line-of-sight position acquisition unit 11 and the subject's pupil diameter after brightness correction to determine the target's point of interest in the display image displayed on the display screen 3. It is an element for It can be said that the degree of attention increased as the pupil diameter increased. In addition to what part of the content (video) the target person was visually recognizing, it is possible to display how the degree of attention of the target person has changed. The point-of-interest analysis unit 13 can be used to determine which part of the content video the target person who perceives the content is paying attention to.
  • the point-of-interest analysis unit 13 receives, in the same manner as the method of the line-of-sight position analysis unit 7 described above, image information of the content sensed by the subject, information on eye movement of the subject, and the like. Then, the information on the screen portion of the video screen and the degree of attention of the target person to that portion are stored in the storage unit. By using these pieces of information, it is possible to add the subject's line-of-sight position represented by various markers, which will be described later, to the pupil analysis result moving image displayed on the analyst's display unit 4 .
  • the display information acquisition unit 15 may further include a display information acquisition unit 15 that acquires display information for analysts for displaying the display screen 3 on the display unit for analysts.
  • the analyst display section is a display section for viewing by a person who performs various analyzes on the subject.
  • the analyst's display unit may be the same as the display screen, or may be another display unit (for example, a computer monitor).
  • the information analyzed by the point-of-interest analysis unit 13 and stored in the storage unit is display information for the analyst.
  • the display information acquisition unit 15 outputs the display information for analyst to the analyst's computer. Then, an image based on the display information for analyst is displayed on the display for analyst.
  • An example of display information for an analyst may be a display of a subject's attention point in a display image displayed on the display screen 3 .
  • Another example of the display information for the analyst is to display the analyzed gaze position acquired by the gaze position analysis unit on the display screen 3 displayed on the display unit for the analyst, and the pupil diameter calculation unit to calculate the pupil
  • This is information for changing the color, size, or shape of the line-of-sight position displayed on the analyst's display section based on the diameter.
  • FIG. 4 is a diagram showing a display example of the display unit for analyst.
  • FIG. 4 is a conceptual diagram showing a display example of the analyst display unit.
  • the analyst display unit 4 is an element for displaying the pupil analysis result of the subject who sensed the content.
  • the analyst display unit 4 may operate on the web, or may operate off-line in a terminal such as a personal computer.
  • the analyzer display section may have, for example, an analysis result moving image display column 4a for displaying the subject's degree of attention and pupil analysis results.
  • the analyst display unit may be provided with a content heat map setting field 4d, a pupil diameter/attention graph display setting field 4c, a mini menu display position setting field 4d, and a pupil diameter/attention graph display field 4e. good.
  • the analysis result moving image display column 4a is a portion for displaying an image corresponding to the gaze position of the content target person sensed by the target person and the degree of attention.
  • the image displayed in the analysis result moving image display column 4a is based on the image information of the content sensed by the subject, and information such as the line-of-sight position and the point of interest is added as follows. is.
  • the target person's gaze position during content sensing is additionally displayed as a predetermined heat map marker on the basic image.
  • the actual line-of-sight position of the subject who is perceiving the content corresponds to the position of the heat map marker of the video information.
  • the marker may change color, size or shape according to the degree of attention of the subject.
  • a video playback button, a rewind button, and a fast forward button may be provided at the bottom of the analysis result video display field 4a.
  • a mini menu for setting the playback position and playback speed may be displayed in the analysis result moving image display field 4a.
  • the analyst's display unit may be provided with a heat map setting field 4b such as a radio box that allows the user (analyst) to select whether or not to display heat map markers on the analysis result video.
  • a heat map setting field 4b such as a radio box that allows the user (analyst) to select whether or not to display heat map markers on the analysis result video.
  • the analysis result video is played back without the markers of the points of interest being displayed.
  • the display of the content heat map setting field is selected and the play button is pressed
  • the analysis result video with markers of the points of interest displayed is played.
  • mesh lines may be displayed on the video.
  • the analyzer display unit may be provided with a pupil diameter/attention graph selection column 4c having a radio box for allowing the user to select which of the above graphs is to be displayed.
  • a pupil diameter/attention graph selection column 4c having a radio box for allowing the user to select which of the above graphs is to be displayed.
  • the pupil diameter radio box is selected, the pupil diameter graph is displayed in the pupil diameter/attention graph display field 4e. It is displayed in the display column 4e.
  • the analyst display unit may have a pupil diameter/attention graph display field 4d that displays a pupil diameter graph representing the subject's pupil diameter and an attention level graph representing the subject's attention level. Either one of the graph representing the subject's pupil diameter and the graph representing the degree of attention of the subject may be displayed, or both graphs may be displayed.
  • a mini-menu display position setting field 4d may be provided in the analyst display section.
  • the mini-menu display position can be set in the mini-menu display position setting field 4d.
  • the graph in FIG. 5 is a graph showing the temporal displacement of the pupil diameter when the subject perceives the content.
  • the horizontal direction of this graph represents how much time is away from the time position during playback of the analysis result moving image (moving image playback time position line 33).
  • a vertical moving image playback time position line 33 indicates the position (time) during playback of the pupil analysis result moving image displayed on the display screen 3 .
  • the left side of the video playback time position line 33 is information about the attention level at the time position that has been played on the display screen 3
  • the right side is information about the attention level at the time position that has not been played on the display screen 3.
  • the vertical direction of this graph (upward direction in FIG. 5 is the positive direction) represents the pupil diameter and the size corresponding to the brightness of the content.
  • the raw measured pupil diameter 27 of the horizontal line is a line formed by a set of points representing the size of the pupil diameter for each playback time position of the subject.
  • the horizontal content luminance equivalent 29 is a line formed by a set of points representing the size of the pupil diameter assumed from the content luminance for each reproduction time position of the subject.
  • these lines of raw measured pupil diameter 27 and content luminance equivalent 29 transition to the left in the graph as the playback position (time) of the analysis video advances.
  • the specifications of the pupil diameter graph may be as follows.
  • the raw measured pupil diameter 27 and the content brightness equivalent 29 for the entire time of the analysis result video are fixedly displayed before the video is played, and the time position line 33 during video playback corresponds to the position (time) during video playback. may be a specification that transitions.
  • FIG. 6 shows graph data of the time transition of the degree of attention of each subject and its average value among the output file data.
  • the horizontal axis of the graph in FIG. 6 is the time axis, and the vertical axis is the attention level of the subject.
  • FIG. 7 illustrates the attention degree total distribution data for each subject among the output file data.
  • the total attention degree distribution data described above is data for tabulation of the total attention degree distribution for each subject among the output file data.
  • a file containing standard deviation information indicating the variation in attention level among multiple subjects and standard deviation information indicating the variation in attention level during measurement of one subject is output. may be
  • the present invention can be used in the field of information analysis.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【解決課題】 画面輝度を考慮し,瞳孔径を適切に測定できるアイウェアを提供する。 【解決手段】 表示画面を有し,対象者の瞳孔径を計測するための瞳孔径測定用アイウェアであって,表示画面の明るさに関する情報である画面輝度を得るための画面輝度取得部と,対象者の瞳孔を含む画像である対象者画像を得る撮影部と,画面輝度,及び対象者画像を用いて,対象者の輝度補正後の瞳孔径を求める,瞳孔径算出部と,を有する,瞳孔径測定用アイウェア。

Description

瞳孔径測定機能付きアイウェア
この発明は,瞳孔径測定機能付きアイウェアに関する。
 実用新案登録第3137375号公報には,瞳孔撮像装置が記載されている。
 この瞳孔撮像装置は,遮光性ゴーグル内における,光刺激におる瞳孔の光反応を観測できる。しかなしながら,この装置は遮光ゴーグルを用いているため,遮光ゴーグル内の光刺激以外の光による輝度を考慮していない。また,この装置は遮光ゴーグルを使用しているため,遮光ゴーグル以外のアイウェアには適さない。
実用新案登録第3137375号公報
 そこで,本発明は,画面輝度を考慮し,瞳孔径を適切に測定できるアイウェアを提供することを目的とする。
 この明細書に記載されるある発明は,画面輝度を得るための画面輝度取得部を有するので,輝度補正後の対象者の瞳孔径を求めることができるという知見に基づく。
 この発明は,瞳孔径測定用アイウェア1に関する。
 瞳孔径測定用アイウェア1は,表示画面3を有し,対象者の瞳孔径を計測するためのツールである。
 この瞳孔径測定用アイウェア1は,表示画面3の明るさに関する情報である画面輝度を得るための画面輝度取得部5と,
 対象者の瞳孔を含む画像である対象者画像を得る撮影部7と,
 画面輝度,及び対象者画像を用いて,輝度補正後の対象者の瞳孔径を求める,瞳孔径算出部9と,
 を有する。
 瞳孔径測定用アイウェア1は,ヘッドマウントディスプレイ(好ましくは,クロスリアリティ用ヘッドマウントディスプレイ),ヘルメット,ゴーグル,眼鏡又はサングラスであってもよい。
 瞳孔径測定用アイウェア1の好ましい例は,対象者の表示画面3上の視線位置を得る視線位置取得部11と,
 視線位置取得部11が取得した視線位置と,対象者の輝度補正後の瞳孔径とを用いて,表示画面3に表示される表示画像における対象者の注目箇所を判断する注目箇所分析部13とをさらに有するものである。
 この例は,分析者用表示部に表示画面3を表示するための分析者用表示情報を取得する表示情報取得部15をさらに有してもよい。
 分析者用表示情報の例は,表示画面3に表示される表示画像における対象者の注目箇所を表示したものでもよい。
 分析者用表示情報の別の例は,視線位置分析部取得した分析した視線位置を分析者用表示部に表示される表示画面3上に表示するとともに,瞳孔径算出部が算出対象者の瞳孔径に基づいて,分析者用表示部に表示される視線位置の色,大きさ又は形を変化させるための情報である。
 本発明は,画面輝度を考慮し,瞳孔径を適切に測定できるアイウェアを提供できる。
図1は,本発明の瞳孔径測定用アイウェアのブロック図の例である。 図2は,表示画面にコマーシャル動画を流しつつ対象者の瞳孔径を測定した例を示す図面に代わるグラフである。図2(a)及び図2(b)は,それぞれ対象者にとって興味が高いコマーシャルと興味が低いコマーシャルを表示した場合の,対象者の瞳孔径の変化を示すグラフである。 図3は,瞳孔反応を用いた医療診断の例を示す図面に代わるグラフである。図3(a)は73才男性の健常者のグラフであり,図3(b)は59才男性のめまいがある者(メニエール病患者)のグラフであり,図3(c)は76才男性のパーキンソン病患者のグラフである。 図4は,分析者用表示部の表示例を表した図である。 図5のグラフは,対象者によるコンテンツ感知時の瞳孔径の時間変位を表すグラフである。 図6は,出力されるファイルデータのうち,各対象者の注目度の時間推移,その平均値のグラフデータを図示したものである。図6のグラフの横軸は時間軸であり,縦軸は対象者の注目度である。 図7は,出力されるファイルデータのうち,各対象者の注目度総数分布データを図示したものである。
 以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜修正したものも含む。
 以下で説明する瞳孔径測定用アイウェア1は,基本的に,制御部,演算部,記憶部,入力部,及び出力部といったハードウェアを有してよい。制御部は,入力部から入力された情報に基づいて,記憶部に記憶されているプログラムに従った所定の演算処理を演算部に実行させ,その演算結果を適宜記憶部に記憶させ,出力部を制御する。制御部及び演算部の例は,CPUやGPUなどのプロセッサである。記憶部のストレージ機能は,例えばHDD及びSSDといった不揮発性メモリによって実現でき,記憶部のメモリ機能は,例えばRAMやDRAMといった揮発性メモリにより実現できる。入力装置の例は,ネットワークを介して情報を受信するための通信モジュールや,マウスやキーボードなどの操作用モジュールである。出力装置の例は,ネットワークを介して情報を送信するための通信モジュールや,ディスプレイ,スピーカなどである。
 例えば,記憶部には,制御プログラムが記憶されていてもよいし,各種情報が記憶されていてもよい。入力装置から所定の情報が入力された場合,制御部は,記憶部に記憶される制御プログラムを読み出す。そして,制御部は,適宜記憶部に記憶された情報を読み出し,演算部へ伝える。また,制御部は,適宜入力された情報を演算部へ伝える。演算部は,受け取った各種情報を用いて演算処理を行い,記憶部に記憶する。制御部は,記憶部に記憶された演算結果を読み出して,出力部から出力する。このようにして,各種処理が実行される。この各種処理を実行するものが,各手段である。
 瞳孔径測定用アイウェア1
 図1は,本発明の瞳孔径測定用アイウェアのブロック図の例である。
 図1に示される通り,この瞳孔径測定用アイウェア1は,表示画面3,画面輝度取得部5と,撮影部7と,瞳孔径算出部9と,を有する。図1に示される通り,この瞳孔径測定用アイウェア1は,視線位置取得部11と,注目箇所分析部13と,表示情報取得部15をさらに有してもよい。得られた瞳孔径は,例えば,動画(例えばCM)の評価,アンケート調査,商品ディスプレイの評価,建築デザインの評価,ゲームの心理分析や,表示された表示情報に関する感情分析,自律神経の状況,認知症の状況,脳疾患の検査,脳状態や精神分析など,種々の用途に用いられる。
 瞳孔径測定用アイウェア1は,表示画面3を有し,対象者の瞳孔径を計測するためのツールである。対象者は,通常,ヒトである。瞳孔径は,通常ヒトの瞳孔径である。
 瞳孔径測定用アイウェア1の本体は,瞳孔を測定でき,体に装着でき,携帯できるものであればよい。瞳孔径測定用アイウェア1の本体の例は,ヘッドマウントディスプレイ(好ましくは,クロスリアリティ用ヘッドマウントディスプレイ),ヘルメット,ゴーグル,眼鏡及びサングラスであってもよい。クロスリアリティ(XR)の例はVR(仮想現実),AR(拡張現実)及びMR(複合現実)である。瞳孔径測定用アイウェア1は,ゲーム用であってもよいし,作業用であってもよいし,テレビやビデオを表示するためのものであってもよいし,仮想旅行用のものであってもよい。
 表示画面3
瞳孔径測定用アイウェア1は,表示画面3を有する。表示画面3は,液晶ディスプレイ,プラズマディスプレイなどの表示部である。表示画面は,制御部からの指示に従って,各種情報を表示する。なお,表示画面に表示されるコンテンツの例は動画や静止画である。
 画面輝度取得部5
画面輝度取得部5は,表示画面3の明るさに関する情報である画面輝度を得るための要素である。瞳孔径測定用アイウェア1が遮光ゴーグルといった遮光系の場合,表示画面3に表示される表示情報に基づいて,画面輝度を得てもよい。この場合であっても,センサを用いて,画面輝度3の画面輝度を求めてもよい。
 撮影部7
 撮影部7は,対象者の瞳孔を含む画像である対象者画像を得るための要素である。撮影部7の例は,瞳孔径測定用アイウェア1内のカメラである。カメラなどの撮影部7により,対象者画像を撮影できる。対象者画像は,静止画であってもよいし,動画であってもよい。また,撮影部7の例は,実用新案登録第3137375号公報にも記載されている。なお,撮影部7が,対象者画像を取得しやすくするように,対象者(の目を含む領域)に近赤外線を照射する近赤外線照射装置を有するものは,この発明の好ましい態様である。この場合,カメラは,近赤外線カメラであってもよい。
 瞳孔径算出部9
 瞳孔径算出部9は,画面輝度及び対象者画像を用いて,輝度補正後の対象者の瞳孔径を求めるための要素である。カメラ画像から瞳孔径を求める方法の例は,特許6651536号公報に記載される。求められた輝度補正後の対象者の瞳孔径は,適宜記憶部に記憶される。この際,表示部に表示されたコンテンツ(映像)の識別番号とともに,記憶部に記憶されることが好ましい。このようにすれば,コンテンツの表示タイミングと,瞳孔径の変化のタイミングとを関連付けて記憶できることとなる。
 以上の構成により,瞳孔径測定用アイウェア1は,画面輝度を考慮した輝度補正後の対象者の瞳孔径を得ることができる。この瞳孔径の経時変化を調査すれば,対象者の心理状況を把握することができる。例えば,検査対象に関する情報を機械学習部17に機械学習させておく。そして,機械学習部に,得られた輝度補正後の対象者の瞳孔径の情報を入力する。すると,機械学習部は,入力された輝度補正後の対象者の瞳孔径(の経時変化)に基づいて,各種対象となる評価や診断を行う。この際,対象者の個人情報(年齢,性別,既往症など)が入力されていれば,より確度の高い評価や診察を行うことができる。
 図2は,表示画面にコマーシャル動画を流しつつ対象者の瞳孔径を測定した例を示す図面に代わるグラフである。図2(a)及び図2(b)は,それぞれ対象者にとって興味が高いコマーシャルと興味が低いコマーシャルを表示した場合の,対象者の瞳孔径の変化を示すグラフである。縦軸は瞳孔径(任意単位),横軸は提示時間(秒)である。図2から,この瞳孔径測定用アイウェア1を用いることで,対象者の興味を分析できることがわかる。
 図3は,瞳孔反応を用いた医療診断の例を示す図面に代わるグラフである。図3(a)は73才男性の健常者のグラフであり,図3(b)は59才男性のめまいがある者のグラフであり,図3(c)は76才男性のパーキンソン病患者のグラフである。縦軸は瞳孔径(任意単位),横軸は提示時間(秒)である。得られた輝度補正後の対象者の瞳孔径の情報が,機械学習部17に入力されると,機械学習部17は入力された情報に基づいて,対象者の疾患や精神状況を分析する。図3から,この瞳孔径測定用アイウェア1を用いることで,対象者を医学的に分析できることがわかる。
 視線位置取得部11
 視線位置取得部11は,対象者の表示画面3上の視線位置を得るための要素である。視線位置取得部11は,撮影部が撮影した画像や,表示画面に表示される映像,対象者の眼球運動の情報から,対象者の視点位置を分析する。対象者の視点位置を分析する方法は公知である。視線位置取得部11は,撮影部により撮影された眼球運動映像を取得する。次に,対象者の感知するコンテンツが,動画や静止画等の映像情報であるならば,その映像情報をコンテンツの映像情報として取得する。そして,視線位置取得部11は,コンテンツの映像情報及び眼球運動映像から,その映像における対象者の視認位置を特定し,その情報を記憶部に保存する。記憶部に記憶された情報を出力すれば,表示画面に表示されたコンテンツ(映像)において,対象者がどの部分を視認していたかを表示できる。この情報は,各種の分析に用いることができる。
 注目箇所分析部13
 注目箇所分析部13は,視線位置取得部11が取得した視線位置と,対象者の輝度補正後の瞳孔径とを用いて,表示画面3に表示される表示画像における対象者の注目箇所を判断するための要素である。瞳孔径が大きくなると注目度が高まったといえる。コンテンツ(映像)において,対象者がどの部分を視認していたかと併せて,対象者の注目度合いがどのように変化したかを表示できる。注目箇所分析部13は,コンテンツを感知する対象者が,そのコンテンツ映像のどの部分に注目しているかを判断するために用いることができる。例えば,注目箇所分析部13は,上記の視線位置分析部7の方法と同様に,対象者の感知するコンテンツの映像情報,対象者の眼球運動の情報等を受け取る。そして,映像画面の画面箇所の情報とその部分の対象者の注目度を記憶部に記憶する。これらの情報を用いることにより,分析者用表示部4にて表示される瞳孔分析結果動画に対して,後述する様々なマーカーによって表される対象者の視線位置を,付加することができる。
 表示情報取得部15
 表示情報取得部15は,分析者用表示部に表示画面3を表示するための分析者用表示情報を取得する表示情報取得部15をさらに有してもよい。分析者用表示部は,対象者に関する各種分析を行う者が見るための表示部である。分析者用表示部は,表示画面と同じであってもよいし,他の表示部(例えばコンピュータのモニタ)であってもよい。例えば,注目箇所分析部13が分析し,記憶部に記憶した情報は,分析者用表示情報である。表示情報取得部15は,分析者用表示情報を,分析者のコンピュータに出力する。すると,分析者用表示部に分析者用表示情報に基づいた映像が表示される。このように分析者用表示情報の例は,表示画面3に表示される表示画像における対象者の注目箇所を表示したものでもよい。
 分析者用表示情報の別の例は,視線位置分析部取得した分析した視線位置を分析者用表示部に表示される表示画面3上に表示するとともに,瞳孔径算出部が算出対象者の瞳孔径に基づいて,分析者用表示部に表示される視線位置の色,大きさ又は形を変化させるための情報である。このようにすることで,対象者がどの部分に注目したかなどをわかりやすく表示できる。
 図4は,分析者用表示部の表示例を表した図である。図4は,分析者用表示部の表示例を表した概念図である。分析者用表示部4は,コンテンツを感知した対象者の瞳孔分析結果を表示するための要素である。分析者用表示部4は,web上で動作するものであってもよいし,パソコン等の端末内にてオフラインで動作するものであってもよい。図4に示される様に,分析者用表示部は,例えば,対象者の注目度と瞳孔分析結果表示するための分析結果動画表示欄4aを有してよい。
 分析者用表示部には,コンテンツヒートマップ設定欄4dや,瞳孔径・注目度グラフ表示設定欄4cと,ミニメニュー表示位置設定欄4dと瞳孔径・注目度グラフ表示欄4eが設けられてもよい。
 分析結果動画表示欄4aは,対象者が感知したコンテンツ対象者の視線位置及び注目度を対応させた映像を表示する部分である。具体的には,例えば,分析結果動画表示欄4aに表示される映像は,対象者が感知するコンテンツの映像情報を基本映像として以下の様に視線位置と注目箇所等の情報が付加されたものである。コンテンツ感知中の対象者の視線位置をその基本映像上に,所定のヒートマップマーカーとして付加表示する。
 つまり,コンテンツを感知中の対象者の実際の視線の位置と上記の映像情報のヒートマップマーカーの位置は対応している。また,そのマーカーは対象者の注目度に応じて,色や,大きさ又は形が変化してよい。
 分析結果動画表示欄4aの下部には,例えば,動画再生ボタン,巻き戻しボタン,及び早送りボタンが設けられてよい。これ以外にも,再生位置設定と再生速度を設定するためのミニメニューが分析結果動画表示欄4aに表示されてもよい。
 分析者用表示部には,分析結果動画にヒートマップのマーカー等を表示させるか否か,ユーザ(分析者)が選択できるラジオボックス等のヒートマップ設定欄4bが,設けらてもよい。例えば,ヒートマップ設定欄4bの非表示を選択して再生ボタンが押下されると,上記の分析結果動画に注目箇所のマーカーが表示されない状態で動画が再生される。また,コンテンツヒートマップ設定欄の表示を選択して再生ボタンが押下されると,上記の分析結果動画に注目箇所のマーカーが表示された動画が再生されされる。さらに,マーカーを分析結果動画に表示させる場合,動画上にメッシュ線が表示されてもよい。
 分析者用表示部には,上記のグラフのうち,どちらのグラフを表示させるか否か,ユーザが選択できるラジオボックスを有する瞳孔径・注目度グラフ選択欄4cが,設けらてもよい。
 瞳孔径のラジオボックスが選択されれば,瞳孔径グラフが,瞳孔径・注目度グラフ表示欄4eに表示され,注目度のラジオボックスが選択されれば,注目度グラフが瞳孔径・注目度グラフ表示欄4eに表示される。
 分析者用表示部は,対象者の瞳孔径を表す瞳孔径グラフと,対象者の注目度を表す注目度グラフとを表示する瞳孔径・注目度グラフ表示欄4dを有してよい。対象者の瞳孔径を表すグラフと対象者の注目度を表すグラフは,どちらか一方だけを表示する態様でもよいし,両方のグラフを表示する態様でもよい。
 この他にも,分析者用表示部には,ミニメニュー表示位置設定欄4dが設けられてもよい。ミニメニュー表示位置設定欄4dでは,ミニメニュー表示位置を設定することができる。
 図5のグラフは,対象者によるコンテンツ感知時の瞳孔径の時間変位を表すグラフである。このグラフの横方向は,分析結果動画の再生中の時間位置(動画再生中時間位置線33)から,どの程度時間的に離れているかを表している。
 このグラフにおいて縦線の動画再生中時間位置線33は,表示画面3で表示される瞳孔分析結果動画の,まさに再生中の位置(時間)を示している。グラフ上,動画再生中時間位置線33の左側が,表示画面3にて再生済みの時間位置における注目度に関する情報であり,その右側が表示画面3にて未再生の時間位置における注目度に関する情報である。
 また,このグラフの縦方向(図5の上方向が正方向)は,瞳孔径,コンテンツ輝度相当の大きさを表す。
 このグラフにおいて横線の生測定瞳孔径27は,対象者の再生時間位置ごとの瞳孔径の大きさを表す点の集合で形成される線である。このグラフにおいて横線のコンテンツ輝度相当29は,対象者の再生時間位置ごとのコンテンツ輝度から想定される瞳孔径の大きさを表す点の集合で形成される線である。つまり,これらの生測定瞳孔径27とコンテンツ輝度相当29の線は,分析動画の再生位置(時間)が進めば,グラフ左方向に遷移することになる。また,瞳孔径グラフの仕様は,上記以外に以下の様なものであってもよい。 分析結果動画の全時間分の生測定瞳孔径27とコンテンツ輝度相当29が,動画再生前から先に固定表示され,動画再生中の位置(時間)に対応して,動画再生中時間位置線33が遷移する仕様であってもよい。
 図6は,出力されるファイルデータのうち,各対象者の注目度の時間推移,その平均値のグラフデータを図示したものである。図6のグラフの横軸は時間軸であり,縦軸は対象者の注目度である。図7は,出力されるファイルデータのうち,各対象者の注目度総数分布データを図示したものである。上記の注目度総数分布データは,出力されるファイルデータのうち,各対象者の注目度総数分布の集計用データを図示したものである。また,上記のファイル以外にも,複数の対象者間の注目度のばらつきを示す標準偏差の情報や,一人の対象者の測定中における注目度のばらつきを示す標準偏差の情報を含むファイルが出力されてもよい。
 以上,本願明細書では,本発明の内容を実現するために,図面を参照しながら本発明の実施形態の説明を行った。ただし,本発明は,上記実施形態に限定されるものではなく,本願明細書に記載された事項に基づいて当業者が自明な変更形態や改良形態を包含するものである。
 本発明は,情報解析分野において利用され得る。
1 瞳孔径測定用アイウェア
3 表示画面
5 画面輝度取得部
7 撮影部
9 瞳孔径算出部
11 視線位置取得部
13 注目箇所分析部
15 表示情報取得部

Claims (6)

  1.  表示画面を有し,対象者の瞳孔径を計測するための瞳孔径測定用アイウェアであって,
     前記表示画面の明るさに関する情報である画面輝度を得るための画面輝度取得部と,
     前記対象者の瞳孔を含む画像である対象者画像を得る撮影部と,
     前記画面輝度,及び前記対象者画像を用いて,前記対象者の輝度補正後の瞳孔径を求める,瞳孔径算出部と,
     を有する,
     瞳孔径測定用アイウェア。
  2.  請求項1に記載の瞳孔径測定用アイウェアであって,
     瞳孔径測定用アイウェアは,ヘッドマウントディスプレイである,瞳孔径測定用アイウェア。
  3.  請求項1に記載の瞳孔径測定用アイウェアであって,
     瞳孔径測定用アイウェアは,クロスリアリティ用ヘッドマウントディスプレイである,瞳孔径測定用アイウェア。
  4.  請求項1に記載の瞳孔径測定用アイウェアであって,
     瞳孔径測定用アイウェアは,ヘルメット,ゴーグル,眼鏡又はサングラスである,瞳孔径測定用アイウェア。
  5.  請求項1に記載の瞳孔径測定用アイウェアであって,
     前記対象者の前記表示画面上の視線位置を得る視線位置取得部と,
     前記視線位置取得部が取得した前記視線位置と,前記対象者の輝度補正後の瞳孔径とを用いて,前記表示画面に表示される表示画像における前記対象者の注目箇所を判断する注目箇所分析部とをさらに有する,
     瞳孔径測定用アイウェア。
  6.  請求項5に記載の瞳孔径測定用アイウェアであって,
     分析者用表示部に前記表示画面を表示するための分析者用表示情報を取得する表示情報取得部をさらに有し,
     前記分析者用表示情報は,
      前記視線位置分析部取得した分析した視線位置を前記分析者用表示部に表示される前記表示画面上に表示するとともに,前記瞳孔径算出部が算出対象者の瞳孔径に基づいて,前記分析者用表示部に表示される視線位置の色,大きさ又は形を変化させるための情報である,
     瞳孔径測定用アイウェア。

     
     
PCT/JP2022/046276 2021-12-16 2022-12-15 瞳孔径測定機能付きアイウェア WO2023112994A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023567830A JPWO2023112994A1 (ja) 2021-12-16 2022-12-15

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021204666 2021-12-16
JP2021-204666 2021-12-16

Publications (1)

Publication Number Publication Date
WO2023112994A1 true WO2023112994A1 (ja) 2023-06-22

Family

ID=86774414

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/046276 WO2023112994A1 (ja) 2021-12-16 2022-12-15 瞳孔径測定機能付きアイウェア

Country Status (3)

Country Link
JP (1) JPWO2023112994A1 (ja)
TW (1) TW202327509A (ja)
WO (1) WO2023112994A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015056742A1 (ja) * 2013-10-17 2015-04-23 光一 菊池 視認対象効果度測定装置
WO2017057631A1 (ja) * 2015-10-01 2017-04-06 株式会社夏目綜合研究所 明暗、呼吸及び脈拍の影響を排除する視認者情感判定装置、視認者情感判定システム及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015056742A1 (ja) * 2013-10-17 2015-04-23 光一 菊池 視認対象効果度測定装置
WO2017057631A1 (ja) * 2015-10-01 2017-04-06 株式会社夏目綜合研究所 明暗、呼吸及び脈拍の影響を排除する視認者情感判定装置、視認者情感判定システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WATARU KURASHIMA: "Dokokei Hanno to Kao Hyojo Hanno no Yugo ni yoru Jokan Hyoka no Atarashii Hoho", EIZO JOHO INDUSTRIAL, SANGYO KAIHATSU KIKO KABUSHIKI GAISHA, SANGYO KAIHATSUKIKO INC., JP, vol. 43, no. 6, 1 June 2011 (2011-06-01), JP , pages 24 - 28, XP008183431, ISSN: 1346-1362 *

Also Published As

Publication number Publication date
JPWO2023112994A1 (ja) 2023-06-22
TW202327509A (zh) 2023-07-16

Similar Documents

Publication Publication Date Title
US10610093B2 (en) Method and system for automatic eyesight diagnosis
Lee et al. The comparative measurements of eyestrain caused by 2D and 3D displays
CN109645955B (zh) 基于vr和眼动追踪的多功能视觉功能检测装置及方法
US9247870B2 (en) Method and apparatus for system synchronization in video oculography based neuro-otologic testing and evaluation
US9538947B2 (en) Method, system and device for assisting diagnosis of autism
JP7106569B2 (ja) ユーザーの健康状態を評価するシステム
US20150050628A1 (en) Autism diagnosis support method and system, and autism diagnosis support device
US11529049B2 (en) Method and device for determining a contrast sensitivity threshold
KR102219659B1 (ko) 가상현실 기반의 눈 건강 측정방법 및 그 시스템
CN104185020A (zh) 一种检测立体视觉疲劳度的系统及方法
Barsingerhorn et al. Development and validation of a high-speed stereoscopic eyetracker
Nyström et al. Searching for monocular microsaccades–A red Hering of modern eye trackers?
Yildiz et al. The conceptual understanding of depth rather than the low-level processing of spatial frequencies drives the corridor illusion
CN105100791B (zh) 一种用于测量立体视觉舒适度的系统及方法
Iwata et al. Objective measurement of nine gaze-directions using an eye-tracking device
WO2023112994A1 (ja) 瞳孔径測定機能付きアイウェア
Brooks et al. Development and validation of a high-speed video system for measuring saccadic eye movement
Bindiganavale et al. Development and preliminary validation of a virtual reality approach for measurement of torsional strabismus
CN108495584B (zh) 用于通过触觉界面确定眼球运动的装置和方法
Gao et al. Objective estimation of fusional reserves using infrared eye tracking: the digital fusion-range test
KR20100104330A (ko) 3차원 아드볼 패러다임을 이용하여 객관적으로 3차원 디스플레이 유발 피로감을 측정할 수 있는 방법 및 장치
JP3356340B2 (ja) 瞳孔面積測定装置
KR20220148484A (ko) Vr 공간에 대한 시지각 분석 시스템, 시지각 분석 방법 및 시지각 분석 방법을 실행시키도록 기록매체에 저장된 컴퓨터 프로그램
Gestefeld et al. How free-viewing eye movements can be used to detect the presence of visual field defects in glaucoma patients
JP7548637B2 (ja) 眼優位性を定量化するためのシステムおよび方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22907517

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023567830

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE