JP7334958B2 - Determination device, determination method and determination program - Google Patents

Determination device, determination method and determination program Download PDF

Info

Publication number
JP7334958B2
JP7334958B2 JP2019222384A JP2019222384A JP7334958B2 JP 7334958 B2 JP7334958 B2 JP 7334958B2 JP 2019222384 A JP2019222384 A JP 2019222384A JP 2019222384 A JP2019222384 A JP 2019222384A JP 7334958 B2 JP7334958 B2 JP 7334958B2
Authority
JP
Japan
Prior art keywords
user
image
gray matter
determination
brain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019222384A
Other languages
Japanese (ja)
Other versions
JP2021090549A (en
Inventor
一夫 岡ノ谷
千尋 細田
俊宏 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Teikyo Univ
Original Assignee
Teikyo Univ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Teikyo Univ filed Critical Teikyo Univ
Priority to JP2019222384A priority Critical patent/JP7334958B2/en
Publication of JP2021090549A publication Critical patent/JP2021090549A/en
Application granted granted Critical
Publication of JP7334958B2 publication Critical patent/JP7334958B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、判定装置、判定方法及び判定プログラムに関する。 The present invention relates to a determination device, a determination method, and a determination program.

近年、所定の表示装置(例えば、ヘッドマウントディスプレイ(head mounted display(HMD))など)を用いて三次元(3 dimension(3D))映像を知覚させることにより、種々の行為を仮想的にユーザに体験させるxR(仮想現実(Virtual Reality(VR))、拡張現実(Augmented Reality(AR)))、複合現実(Mixed Reality(MR)等の総称)が様々な分野で活用されている。例えば、VRは、ゲームなどのエンターテイメントだけでなく、スポーツ、航空機の操縦及び自動車の運転などのトレーニング、リハビリ、手術支援ロボット(例えば、da Vinci(登録商標))等で活用されている。 In recent years, users can virtually perform various actions by perceiving three-dimensional (3D) images using a predetermined display device (for example, a head mounted display (HMD)). Experienced xR (Virtual Reality (VR), Augmented Reality (AR)), Mixed Reality (collective term for Mixed Reality (MR), etc.) is utilized in various fields. For example, VR is used not only for entertainment such as games, but also for sports, training such as piloting an airplane and driving a car, rehabilitation, and surgical assistance robots (eg, da Vinci (registered trademark)).

一方、所定の表示装置を用いて3D映像を知覚するユーザに所定の生体反応(例えば、気持ちの悪さ(Nausea)、目の疲れ(Oculomotor)、ふらつき感(Disorientation)など)が生じる場合があることが知られている(例えば、特許文献1)。当該生体反応は、映像酔い、3D酔い、VR酔い等とも呼ばれる。以下では、説明の便宜上、当該生体反応を「映像酔い」と呼ぶ。 On the other hand, a user perceiving a 3D image using a predetermined display device may experience a predetermined biological reaction (eg, Nausea, Oculomotor, Disorientation, etc.). is known (for example, Patent Document 1). The body reaction is also called motion sickness, 3D motion sickness, VR motion sickness, or the like. For convenience of explanation, this biological reaction is hereinafter referred to as “visual motion sickness”.

特開2019-184883号公報JP 2019-184883 A

人間の認知能力(例えば、3D映像に対する受容性)には個人差があり、当該認知能力に関する様々な行為の実施は、全てのユーザに適切に作用するとは限らない。例えば、ユーザが3D映像を用いたトレーニング又はリハビリを実施する場合、映像酔いのために、当該トレーニング又は当該リハビリの実施効果を当該ユーザが十分に得られない恐れがある。したがって、ユーザによる特定の行為(例えば、3D映像を用いた行為)の実施効果を適切に得るために、当該ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定可能とすることが望まれている。 There are individual differences in human cognitive ability (for example, receptivity to 3D images), and performing various actions related to the cognitive ability does not necessarily work well for all users. For example, when a user performs training or rehabilitation using 3D images, the user may not be able to obtain a sufficient effect of the training or rehabilitation due to motion sickness. Therefore, it is determined whether the user has a specific cognitive ability (for example, receptivity to 3D images) in order to appropriately obtain the effect of performing a specific action by the user (for example, an action using 3D images). It is desired to make it possible.

そこで、本発明は、特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定可能な判定装置、判定方法及び判定プログラムを提供することを目的の一つとする。 Accordingly, one object of the present invention is to provide a determination device, a determination method, and a determination program capable of determining whether or not a person has a specific cognitive ability (for example, receptivity to 3D images).

本発明の一態様に係る判定装置は、ユーザの脳画像を取得する取得部と、前記脳画像に基づいて、前記ユーザの脳の灰白質体積を演算する演算部と、前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部と、を備える。 A determination device according to an aspect of the present invention includes an acquisition unit that acquires a brain image of a user, a computation unit that computes a gray matter volume of the user's brain based on the brain image, and the computed gray matter volume. a determination unit that determines whether the user has a specific cognitive ability based on the volume.

この態様によれば、上記灰白質体積に基づいて上記ユーザが特定の認知能力を有するか否かを判定できる。このため、当該判定結果を考慮して特定の行為を実施することで、当該行為の実施効果を適切に得ることができる。 According to this aspect, it is possible to determine whether the user has a specific cognitive ability based on the gray matter volume. Therefore, by performing a specific action in consideration of the determination result, it is possible to appropriately obtain the effect of performing the action.

上記態様において、各ユーザの脳画像に基づいて演算される前記所定領域の灰白質体積と各ユーザの前記特定の認知能力に関する所定課題の成績とを用いた機械学習に基づいて生成された予測器を更に備え、前記判定部は、前記演算された灰白質体積を前記予測器に入力して生成される前記成績の予測値に基づいて、前記ユーザが前記特定の認知能力を有するか否かを判定してもよい。 In the above aspect, the predictor generated based on machine learning using the gray matter volume of the predetermined region calculated based on the brain image of each user and the performance of the predetermined task related to the specific cognitive ability of each user wherein the determination unit determines whether the user has the specific cognitive ability based on the predicted performance value generated by inputting the calculated gray matter volume into the predictor You can judge.

この態様によれば、上記灰白質体積と上記成績とを用いた機械学習に基づいて生成された予測器が用いられるので、上記特定の認知能力を有するか否かの判定精度を向上させることができる。 According to this aspect, since a predictor generated based on machine learning using the gray matter volume and the performance is used, it is possible to improve the accuracy of determining whether or not the person has the specific cognitive ability. can.

上記態様において、前記機械学習には、前記灰白質体積及び前記成績に加えて、各ユーザの前記特定の認知能力に関する主観的指標値が用いられ、前記取得部は、前記脳画像が取得された前記ユーザの主観的指標値を取得し、前記予測値は、前記演算された灰白質体積及び前記取得された主観的指標値を前記予測器に入力して生成されてもよい。 In the above aspect, the machine learning uses a subjective index value related to the specific cognitive ability of each user in addition to the gray matter volume and the performance, and the acquisition unit acquires the brain image. A subjective index value of the user may be obtained, and the predicted value may be generated by inputting the calculated gray matter volume and the obtained subjective index value into the predictor.

この態様によれば、上記灰白質体積及び上記成績に加えて上記主観的指標値を用いた機械学習により学習済みの予測器が用いられるので、上記特定の認知能力を有するか否かの判定精度を向上させることができる。 According to this aspect, in addition to the gray matter volume and the performance, a predictor that has been trained by machine learning using the subjective index value is used, so the accuracy of determining whether or not the person has the specific cognitive ability. can be improved.

上記態様において、前記所定領域は、上頭頂小葉及び尾状核の少なくとも一部に対応する領域であってもよい。この構成によれば、上頭頂小葉及び尾状核の灰白質体積に基づいてユーザが上記特定の認知能力を有するか否かが判定されるので、当該受容性の判定精度を向上させることができる。 In the above aspect, the predetermined region may be a region corresponding to at least part of the superior parietal lobule and the caudate nucleus. According to this configuration, it is determined whether or not the user has the specific cognitive ability based on the gray matter volume of the superior parietal lobule and the caudate nucleus, so it is possible to improve the accuracy of determination of the acceptability. .

上記態様において、前記特定の認知能力は、三次元映像に対する受容性を含んでもよい。この態様によれば、前記ユーザが三次元映像に対する受容性を有するか否かの判定結果を考慮して三次元映像を用いた行為を実施することで、当該行為の実施効果を適切に得ることができる。 In the above aspect, the specific cognitive ability may include receptivity to 3D images. According to this aspect, by performing an action using the 3D video in consideration of the determination result as to whether or not the user has receptivity to the 3D video, the effect of performing the action can be appropriately obtained. can be done.

上記態様において、前記三次元映像は、所定の表示装置を用いて前記ユーザによって知覚され、前記所定の表示装置は、前記ユーザの右目用の二次元映像を表示する第1表示部と左目用の二次元映像を表示する第2表示部とを具備してもよい。 In the above aspect, the three-dimensional image is perceived by the user using a predetermined display device, and the predetermined display device includes a first display unit that displays a two-dimensional image for the user's right eye and a display unit that displays a two-dimensional image for the user's left eye. and a second display for displaying a two-dimensional image.

上記態様において、前記ユーザの頭部に装着される頭部装着型の表示装置、又は、前記ユーザが右目及び左目により記第1表示部及び前記第2表示部をそれぞれ覗き込む非装着型の表示装置であってもよい。 In the above aspect, a head-mounted display mounted on the user's head, or a non-mounted display in which the user looks into the first display section and the second display section with the right and left eyes, respectively. It may be a device.

本発明の他の態様に係る判定方法は、ユーザの脳画像を取得する工程と、前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する工程と、前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する工程と、を有する。 A determination method according to another aspect of the present invention includes the steps of acquiring a brain image of a user, calculating a gray matter volume in a predetermined region of the user's brain based on the brain image, and determining whether the user has a particular cognitive ability based on the gray matter volume.

本発明の他の態様に係る判定プログラムは、判定装置に備えられた演算部を、ユーザの脳画像を取得する取得部、前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する演算部、及び、前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部、として機能させる。 A determination program according to another aspect of the present invention comprises an acquisition unit that acquires a user's brain image, and a gray matter volume of a predetermined region of the user's brain based on the brain image. and a determination unit that determines whether the user has a specific cognitive ability based on the calculated gray matter volume.

本発明によれば、特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定可能な判定装置、判定方法及び判定プログラムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the determination apparatus, determination method, and determination program which can determine whether it has a specific cognitive ability (for example, receptivity to a 3D image) can be provided.

本発明の実施形態に係る3D映像を用いた行為の一例を示す図である。It is a figure which shows an example of the action using the 3D image|video which concerns on embodiment of this invention. 本発明の実施形態に係る3D映像に対する受容性と脳画像の所定領域を関心領域として演算される灰白質体積との相関関係の一例を示す図である。FIG. 4 is a diagram showing an example of the correlation between acceptability for 3D images and gray matter volume calculated using a predetermined region of a brain image as a region of interest according to the embodiment of the present invention; 本発明の実施形態に係る判定システム1の機能構成の一例を示す図である。It is a figure showing an example of functional composition of judgment system 1 concerning an embodiment of the present invention. 本発明の実施形態に係る判定システム1を構成する各装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of each apparatus which comprises the determination system 1 which concerns on embodiment of this invention. 本発明の実施形態に係る学習動作の一例を示すフローチャートである。4 is a flowchart showing an example of learning operation according to the embodiment of the present invention; 本発明の実施形態に係る判定動作の一例を示すフローチャートである。4 is a flow chart showing an example of determination operation according to the embodiment of the present invention; 本発明の実施形態に係る知覚課題の成績と3D映像に対する受容性との関係の一例を示す図である。FIG. 4 is a diagram showing an example of the relationship between the performance of a perceptual task and the acceptability for 3D images according to the embodiment of the present invention; 本発明の実施形態に係る3D映像に対する受容性の判定の効果の一例を示す図である。FIG. 5 is a diagram showing an example of the effect of determining the acceptability of a 3D image according to the embodiment of the present invention;

添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that, in each figure, the same reference numerals have the same or similar configurations.

本実施形態では、脳の所定領域の灰白質の体積(灰白質体積)に基づいて判定される特定の認知能力の一例として、三次元(3D)映像に対する受容性を例示する。なお、特定の認知能力は、3D映像に対する受容性に限られず、脳の所定領域の灰白質体積と相関関係を有するどのような能力であってもよい。 In this embodiment, receptivity to three-dimensional (3D) images is exemplified as an example of a specific cognitive ability determined based on the volume of gray matter in a predetermined region of the brain (gray matter volume). Note that the specific cognitive ability is not limited to receptivity to 3D images, and may be any ability that correlates with the volume of gray matter in a predetermined region of the brain.

本実施形態において、ユーザは、所定の表示装置を用いて三次元(3D)映像を知覚する(視認する、認識する等ともいう)。具体的には、当該所定の表示装置は、ユーザの右目用の二次元(2D)映像(右目用映像)を表示する第1表示部と左目用の2D映像(左目用映像)を表示する第2表示部とを具備する。ここで、3D映像とは、ユーザから立体的に見える映像であり、立体映像、3D立体視とも呼ばれる。当該3D映像は、ユーザが奥行きを知覚できる映像ともいえる。例えば、ユーザに左右の眼に視差(parallax)のある映像(すなわち、右目用映像及び左目用映像)を表示すること(両眼視差(binocular parallax)ともいう)、及び/又は、ユーザの頭部運動に合わせて当該映像の見え方を変化させること(運動視差(motion parallax)ともいう)により、3D映像をユーザに知覚させてもよい。なお、3D映像は、両眼視差を利用するものに限られず、ホログラム、体積走査型などであってもよい。また、2D映像とは、ユーザから平面的に見える映像であり、平面映像等とも呼ばれる。 In this embodiment, a user perceives (also referred to as viewing, recognizing, etc.) a three-dimensional (3D) image using a predetermined display device. Specifically, the predetermined display device includes a first display unit that displays a two-dimensional (2D) image for the user's right eye (right-eye image) and a second display unit that displays a 2D image for the left eye (left-eye image). 2 display. Here, the 3D image is an image viewed stereoscopically by the user, and is also called stereoscopic image or 3D stereoscopic vision. The 3D image can also be said to be an image that allows the user to perceive depth. For example, displaying an image with parallax (i.e., a right-eye image and a left-eye image) to the user (also called binocular parallax); A 3D image may be perceived by the user by changing the appearance of the image according to movement (also referred to as motion parallax). Note that the 3D image is not limited to one that uses binocular parallax, and may be a hologram, a volume scanning type, or the like. A 2D image is an image that can be viewed two-dimensionally by a user, and is also called a two-dimensional image.

ここで、両眼視差を利用して3D映像を知覚させるための右目用映像及び左目用映像は、同一の対象物を異なる角度で捉えた映像である。ユーザは、右目用の第1表示部に表示される右目用映像と、左目用の第2表示部に表示される左目用映像を脳内で一つに合成して、当該対象物を立体的に知覚する(すなわち、3D映像として知覚する)。 Here, the right-eye image and left-eye image for perceiving a 3D image using binocular parallax are images obtained by capturing the same object at different angles. The user synthesizes the image for the right eye displayed on the first display unit for the right eye and the image for the left eye displayed on the second display unit for the left eye into one in his or her brain, thereby stereoscopically displaying the object. (i.e., perceive as a 3D image).

上記第1表示部及び第2表示部を備える所定の表示装置は、ユーザの所定部位に装着される装着型表示装置であってもよいし、又は、非装着型表示装置であってもよい。装着型表示装置は、例えば、ユーザの頭部に装着されるヘッドマウントディスプレイ(head mounted display(HMD))、VRヘッドセット、ゴーグル等であってもよい。非装着型表示装置は、例えば、Cave Automatic Virtual Environment(CAVE)等の没入型ディスプレイ(immersive display)、立体テレビ、右目用の第1表示部及び左目用の第2表示部を備えたコンソールを含む手術支援ロボット等であってもよい。 The predetermined display device including the first display section and the second display section may be a wearable display device that is worn on a predetermined site of the user, or may be a non-wearable display device. The wearable display device may be, for example, a head mounted display (HMD) worn on the user's head, a VR headset, goggles, or the like. Non-wearable display devices include, for example, immersive displays such as Cave Automatic Virtual Environment (CAVE), stereoscopic televisions, and consoles with a first display for the right eye and a second display for the left eye. It may be a surgical assistance robot or the like.

図1は、本実施形態に係る3D映像を用いた行為の一例を示す図である。図1では、上記所定の表示装置として、ユーザの頭部に装着されるHMD100が例示されるが、上記の通り、所定の表示装置はこれに限られない。また、図1では、3D映像を用いた行為の一例としてスポーツ(ここでは、テニス)が示されているが、当該行為は、スポーツ以外の分野の行為(例えば、航空機の操縦、車両の運転、リハビリ、患者の手術)等であってもよい。また、図1では、3D映像は、仮想現実(VR)を実現するものであるが、拡張現実(AR)又は複合現実(MR)を実現するものであってもよい。 FIG. 1 is a diagram showing an example of an action using 3D video according to this embodiment. In FIG. 1, the HMD 100 worn on the user's head is exemplified as the predetermined display device, but as described above, the predetermined display device is not limited to this. In addition, in FIG. 1, sports (here, tennis) are shown as an example of an action using 3D images, but the action is an action in a field other than sports (for example, piloting an aircraft, driving a vehicle, rehabilitation, patient's surgery) and the like. In addition, in FIG. 1, the 3D video realizes virtual reality (VR), but may also realize augmented reality (AR) or mixed reality (MR).

図1において、ユーザは、HMD100が備える第1表示部101及び第2表示部102にそれぞれ表示される右目用映像及び左目用映像の視差により、3D映像Vを知覚する。例えば、図1では、ユーザは、頭部に装着されたHMD100を用いて知覚される3D映像Vに基づいて、テニスのトレーニングを実施している。 In FIG. 1, the user perceives the 3D image V by the parallax between the right-eye image and the left-eye image displayed on the first display unit 101 and the second display unit 102 of the HMD 100, respectively. For example, in FIG. 1, the user is training for tennis based on a 3D image V perceived using the HMD 100 worn on the head.

また、HMD100は、ユーザの所定部位(例えば、頭、目、手、足など)の動き(motion)を検知するセンサー103を備え、当該動きの解析結果に基づいて右目用映像及び左目用映像を制御するトラッキング機能を有してもよい。当該トラッキング機能は、ヘッドトラッキング、アイトラッキング、モーショントラッキング等とも呼ばれる。当該動きを検出するセンサーは、例えば、方向を検出する磁力計、角度や角速度を検出するジャイロスコープ、加速度を検出する加速度計、赤外線センサー等であってもよい。 In addition, the HMD 100 includes a sensor 103 that detects motion of a user's predetermined parts (eg, head, eyes, hands, feet, etc.), and displays right-eye and left-eye images based on the analysis result of the motion. It may have a tracking function to control. The tracking function is also called head tracking, eye tracking, motion tracking, and the like. The sensor that detects the movement may be, for example, a magnetometer that detects direction, a gyroscope that detects angle and angular velocity, an accelerometer that detects acceleration, an infrared sensor, or the like.

トラッキング機能により、ユーザの所定の動きに従って当該ユーザが知覚する3D映像が変化する。例えば、図1では、ラケットを操作するユーザの手の動きや、目の方向、頭の動きに応じて、3D映像Vで知覚されるラケットやボールの動き、位置等が変化する。このため、ユーザの臨場感や没入感を向上させることができる。 The tracking function changes the 3D image perceived by the user according to the user's predetermined movement. For example, in FIG. 1, the movement, position, etc. of the racket and ball perceived in the 3D image V change according to the movement of the hand of the user operating the racket, the direction of the eyes, and the movement of the head. Therefore, it is possible to improve the sense of realism and immersion of the user.

ところで、以上のような3D映像中の視覚的な運動をきっかけとして、「映像酔い」等と呼ばれる所定の生体反応(例えば、気持ちの悪さ、目の疲れ、ふらつき感など)が生じるユーザが存在することが知られている。 By the way, there are users who experience a predetermined biological reaction called "visual motion sickness" (for example, discomfort, eye fatigue, lightheadedness, etc.) triggered by visual movement in 3D images as described above. It is known.

そこで、所定数の被験者に対して2D映像及び3D映像それぞれ(以下、2D/3D映像と略する)の知覚課題(例えば、2D/3D映像を用いた複数オブジェクト追跡(Multiple Object Tracking(MOT))課題)を実施したところ、2D/3D映像の成績に有意な差がない被験者のグループ(第1の被験者グループ)と、3D映像の成績が2D映像の成績よりも有意に低い被験者のグループ(第2の被験者グループ)とが生じた。なお、MOT課題とは、映像内の複数の物体を追跡する所定のタスクであり、被験者の知覚能力の評価に用いられる。 Therefore, perceptual tasks of 2D images and 3D images (hereinafter abbreviated as 2D/3D images) for a predetermined number of subjects (for example, Multiple Object Tracking (MOT) using 2D/3D images) A group of subjects with no significant difference in 2D/3D image performance (first subject group) and a group of subjects with significantly lower 3D image performance than 2D image performance (second 2 subject groups). Note that the MOT task is a predetermined task of tracking multiple objects in an image, and is used to evaluate a subject's perceptual ability.

第1の被験者グループは、3D映像を用いた知覚課題でも2D映像を用いる場合と同様の成績が出せるので、第2の被験者グループよりも3D映像に対する受容性が高いといえる。一方、第2の被験者グループは、3D映像を用いた知覚課題の成績が2D映像を用いる場合よりも有意に低くなるので、第1の被験者グループよりも3D映像に対する受容性が低いといえる。ここで、3D映像に対する受容性とは、3D映像を知覚しても映像酔いを生じ難く、3D映像を用いた行為の実施効果を適切に得られることをいう。 The first subject group can achieve the same results in the perceptual task using the 3D image as in the case of using the 2D image, so it can be said that the receptivity to the 3D image is higher than that of the second subject group. On the other hand, the second subject group has a significantly lower performance in the perceptual task using the 3D image than the case of using the 2D image, so it can be said that the second subject group has lower receptivity to the 3D image than the first subject group. Here, the receptivity to 3D images means that even if a person perceives 3D images, motion sickness is unlikely to occur, and the effect of performing actions using 3D images can be appropriately obtained.

図2は、本実施形態に係る3D映像に対する受容性と脳画像の所定領域を関心領域(Region Of Interest(ROI))として演算される灰白質体積との相関関係の一例を示す図である。図2では、人間の脳の側面からみた脳画像I1と、脳画像I1の切断面Xで人間の脳を切断した断面を示す脳画像I2とが示される。脳画像I1に示される上頭頂小葉は、大脳の外側面にある脳回のひとつである。上頭頂小葉は、対象物の位置や動き、奥行きなどの空間に関係する情報を認識するための役割を有する。一方、脳画像I2に示される尾状核は、脳の中心付近、視床の両側に存在する。尾状核は、運動の制御や学習、認知等に関係する。 FIG. 2 is a diagram showing an example of the correlation between the receptivity to 3D images and the gray matter volume calculated using a predetermined region of a brain image as a region of interest (ROI) according to the present embodiment. FIG. 2 shows a brain image I1 viewed from the side of the human brain, and a brain image I2 showing a cross section obtained by cutting the human brain along the cutting plane X of the brain image I1. The superior parietal lobule shown in brain image I1 is one of the gyri on the lateral surface of the cerebrum. The superior parietal lobule plays a role in recognizing information related to space, such as the position, movement, and depth of an object. On the other hand, the caudate nucleus shown in the brain image I2 exists near the center of the brain and on both sides of the thalamus. The caudate nucleus is involved in motor control, learning, cognition, and the like.

図2に示すように、3D映像に対する受容性が相対的に高い(すなわち、2D/3D映像の知覚課題の成績差が相対的に小さい)第1の被験者グループについては、上頭頂小葉の灰白質体積が大きく、尾状核の灰白質体積が小さい傾向がある。一方、3D映像に対する受容性が相対的に高い(すなわち、3D映像の成績が2D映像の成績よりも有意に低い)第2の被験者グループについては、上頭頂小葉の灰白質体積が小さく、尾状核の灰白質体積が大きい傾向がある。 As shown in FIG. 2, for the first group of subjects with relatively high receptivity to 3D images (i.e., relatively small performance differences in the 2D/3D image perception task), the gray matter in the superior parietal lobule It tends to be larger in volume and smaller in caudate gray matter volume. On the other hand, for the second group of subjects, who had relatively high receptivity to 3D images (i.e., 3D image performance was significantly lower than 2D image performance), the gray matter volume in the superior parietal lobule was smaller and the caudate There tends to be a large nuclear gray matter volume.

このように、3D映像に対する受容性と上頭頂小葉の灰白質体積との間には、正の相関関係がある。一方、3D映像に対する受容性と尾状核の灰白質体積との間には、負の相関関係がある。すなわち、3D映像に対する受容性等の特定の認知能力は、脳の所定領域の灰白質体積の相関関係があると想定される。そこで、本発明者らは、特定の認知能力(例えば、3D映像に対する受容性)と脳の所定領域の灰白質体積との相関関係に着目し、当該所定領域の灰白質体積に基づいて特定の認知能力(例えば、3D映像に対する受容性)を判定することを着想した。 Thus, there is a positive correlation between receptivity to 3D images and superior parietal gray matter volume. On the other hand, there is a negative correlation between receptivity to 3D images and caudate gray matter volume. That is, it is assumed that specific cognitive abilities, such as receptivity to 3D images, are correlated with gray matter volume in a given region of the brain. Therefore, the present inventors focused on the correlation between a specific cognitive ability (for example, receptivity to 3D images) and the gray matter volume in a predetermined region of the brain, and based on the gray matter volume in the predetermined region, a specific The idea was to determine cognitive performance (eg, receptivity to 3D images).

なお、以下では、特定の認知能力(例えば、3D映像に対する受容性)の判定に用いられる脳の所定領域が、上頭頂小葉及び尾状核の少なくとも一つであるものとするが、これに限られない。当該所定領域は、当該特定の認知能力と相関関係を有する脳のどのような領域であってもよい。当該所定領域は、例えば、上記上頭頂小葉及び尾状核の少なくとも一つに代えて又は加えて、角回及び大脳基底核の少なくとも一つを含んでもよい。 In the following, it is assumed that the predetermined region of the brain used to determine a specific cognitive ability (for example, receptivity to 3D images) is at least one of the superior parietal lobule and the caudate nucleus, but is limited to this. can't The predetermined region can be any region of the brain that correlates with the particular cognitive ability. The predetermined region may include, for example, at least one of the angular gyrus and the basal ganglia instead of or in addition to at least one of the superior parietal lobule and the caudate nucleus.

(判定システムの構成)
図3は、本発明の実施形態に係る判定システム1の一例を示す図である。判定システム1は、予測器14aを用いて特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを予測する判定装置10と、予測器14aに実装される予測モデル22bの学習処理を行う学習装置20と、を有する。なお、予測モデル22bを実装する予測器14aは、予測モデル、予測プログラム、予測アルゴリズム等と言い換えられてもよい。
(Configuration of judgment system)
FIG. 3 is a diagram showing an example of the determination system 1 according to the embodiment of the invention. The determination system 1 includes a determination device 10 that predicts whether or not a person has a specific cognitive ability (for example, receptivity to 3D images) using a predictor 14a, and a learning process of a prediction model 22b implemented in the predictor 14a. and a learning device 20 that performs Note that the predictor 14a that implements the prediction model 22b may also be called a prediction model, a prediction program, a prediction algorithm, or the like.

また、本例では、学習装置20による機械学習によって学習された予測器14aを用いる判定装置10について説明するが、予測器14aは、必ずしも機械学習によって生成されたものに限られず、脳の所定領域の灰白質体積と特定の認知能力(例えば、3D映像に対する受容性)の関係について理論的に導かれた関係式又は経験的に導かれた関係式に基づいて当該特定の認知能力を判定するものであってもよい。 Further, in this example, the determination device 10 using the predictor 14a learned by machine learning by the learning device 20 will be described. Determining the specific cognitive ability based on a theoretically derived relational expression or an empirically derived relational expression regarding the relationship between gray matter volume and specific cognitive ability (e.g., receptivity to 3D images) may be

また、本例では、判定装置10及び学習装置20が別体の場合を示しているが、判定装置10及び学習装置20は一体の装置で構成されてもよい。例えば、判定装置10及び学習装置20は、PLC(Programmable Logic Controller)の異なる動作として実現されてもよい。 Also, in this example, the determination device 10 and the learning device 20 are separate devices, but the determination device 10 and the learning device 20 may be configured as an integrated device. For example, the determination device 10 and the learning device 20 may be implemented as different operations of a PLC (Programmable Logic Controller).

<学習装置>
学習装置20は、機能構成として、学習用データ22aを生成する生成部21と、学習用データ22a及び予測モデル22bを記憶する記憶部22と、学習用データ22aを用いた機械学習により予測モデル22bの学習処理を実施する学習部23と、を有する。生成部21は、脳画像取得部211と、灰白質体積演算部212と、成績取得部213と、主観的指標値取得部214と、を有する。
<Learning device>
The learning device 20 includes, as a functional configuration, a generation unit 21 that generates learning data 22a, a storage unit 22 that stores learning data 22a and a prediction model 22b, and a prediction model 22b by machine learning using the learning data 22a. and a learning unit 23 for performing the learning process. The generation unit 21 has a brain image acquisition unit 211 , a gray matter volume calculation unit 212 , a performance acquisition unit 213 , and a subjective index value acquisition unit 214 .

脳画像取得部211は、各ユーザの脳画像を取得する。脳画像は、例えば、磁気共鳴画像化(Magnetic Resonance Imaging(MRI))装置により撮像された画像(例えば、図2の脳画像I1、I2など)であってもよい。脳画像は、脳解剖画像等と呼ばれてもよい。当該MRI装置は、例えば、3テスラMRI装置であってもよい。 The brain image acquisition unit 211 acquires a brain image of each user. The brain image may be, for example, an image captured by a Magnetic Resonance Imaging (MRI) device (eg, brain images I1, I2, etc. in FIG. 2). A brain image may be called a brain anatomy image or the like. The MRI machine may be, for example, a 3 Tesla MRI machine.

灰白質体積演算部212は、脳画像取得部211により取得された脳画像に基づいて、ユーザの脳の所定領域の灰白質体積を演算する。具体的には、灰白質体積演算部212は、当該脳画像の所定領域を関心領域に設定して、関心領域における灰白質体積を演算する。当該所定領域は、例えば、上頭頂小葉及び尾状核の少なくとも一部に対応する領域であるが、これに限られず、角回及び大脳基底核等の少なくとも一部に対応する領域であってもよい。当該灰白質体積は、例えば、Voxel-based-Morp hometry(VBM)を用いて評価されてもよい。 The gray matter volume calculation unit 212 calculates the gray matter volume of a predetermined region of the user's brain based on the brain image acquired by the brain image acquisition unit 211 . Specifically, the gray matter volume calculator 212 sets a predetermined region of the brain image as the region of interest and calculates the gray matter volume in the region of interest. The predetermined region is, for example, a region corresponding to at least a portion of the superior parietal lobule and the caudate nucleus, but is not limited to this, and may be a region corresponding to at least a portion of the angular gyrus and the basal ganglia. good. The gray matter volume may be assessed using, for example, the Voxel-based-Morp hometry (VBM).

成績取得部213は、各ユーザの特定の認知能力に関する所定課題(例えば、3D映像を用いた知覚課題)の成績(例えば、正答率又は点数)を取得する。当該3D映像を用いた知覚課題の成績は、例えば、3D映像を用いたMOT課題の成績であってもよい。 The score acquisition unit 213 acquires a score (for example, correct answer rate or score) of a predetermined task (for example, a perceptual task using 3D images) regarding each user's specific cognitive ability. The performance of the perceptual task using the 3D video may be, for example, the performance of the MOT task using the 3D video.

主観的指標値取得部214は、各ユーザの特定の認知能力に関する主観的指標値(例えば、映像酔いに関する主観的指標値)を取得する。当該映像酔いに関する主観的指標値は、例えば、Simulator Sickness Questionnaire(SSQ)値を示す情報であってもよい。SSQでは、気持ちの悪さ、目の疲れ、ふらつき感に分類される所定数の質問項目(例えば、16の質問項目)について、所定段階(例えば、4段階)でユーザが回答する。SSQ値は、当該回答に基づいて生成される所定の指標値であってもよい。当該SSQ値は、上記知覚課題を実施した後のユーザの回答に基づいて生成されてもよい。 The subjective index value acquiring unit 214 acquires a subjective index value (for example, a subjective index value relating to motion sickness) regarding specific cognitive ability of each user. The subjective index value related to motion sickness may be, for example, information indicating a Simulator Sickness Questionnaire (SSQ) value. In the SSQ, the user answers a predetermined number of question items (eg, 16 question items) classified into discomfort, eye strain, and dizziness in a predetermined stage (eg, 4 stages). The SSQ value may be a predetermined index value generated based on the answer. The SSQ value may be generated based on the user's answers after performing the perceptual task.

記憶部22は、生成部21によって生成される学習用データ22aと、学習部23による学習処理によって生成される予測モデル22bとを記憶する。学習用データ22aは、灰白質体積演算部212によって演算される灰白質体積と、成績取得部213によって取得される成績とをユーザ毎に関連付けたデータであってもよい。また、学習用データ22aは、上記灰白質体積及び成績に加えて、主観的指標値取得部214によって取得される主観的指標値をユーザ毎に関連付けたデータであってもよい。 The storage unit 22 stores learning data 22 a generated by the generation unit 21 and a prediction model 22 b generated by learning processing by the learning unit 23 . The learning data 22a may be data in which the gray matter volume calculated by the gray matter volume calculation unit 212 and the score obtained by the score acquisition unit 213 are associated with each user. Further, the learning data 22a may be data in which the subjective index value acquired by the subjective index value acquiring unit 214 is associated with each user in addition to the gray matter volume and grade.

学習部23は、記憶部22に記憶された学習用データ22aを用いた機械学習によって予測モデル22bの学習処理を実行する。例えば、学習部23は、学習用データ22aとして記憶される各ユーザの灰白質体積に基づいて、学習用データ22aとして記憶される各ユーザの成績が出力されるように、予測モデル22bの学習処理を行ってもよい。また、学習部23は、学習用データ22aとして記憶される各ユーザの灰白質体積及び主観的指標値に基づいて、学習用データ22aとして記憶される各ユーザの成績が出力されるように、予測モデル22bの学習処理を行ってもよい。 The learning unit 23 executes learning processing of the prediction model 22b by machine learning using the learning data 22a stored in the storage unit 22 . For example, the learning unit 23 performs learning processing of the prediction model 22b so that the results of each user stored as the learning data 22a are output based on the gray matter volume of each user stored as the learning data 22a. may be performed. In addition, the learning unit 23 predicts that the performance of each user stored as the learning data 22a is output based on the gray matter volume and the subjective index value of each user stored as the learning data 22a. A learning process for the model 22b may be performed.

学習部23によって機械学習される予測モデル22bは、例えば、ニューラルネットワークで構成されてよい。予測モデル22bがニューラルネットワークで構成される場合、学習部23は、例えば、誤差逆伝播法によってニューラルネットワークの学習処理を行ってよい。 The prediction model 22b machine-learned by the learning unit 23 may be composed of, for example, a neural network. When the prediction model 22b is configured by a neural network, the learning unit 23 may perform neural network learning processing by, for example, the error backpropagation method.

<判定装置>
判定装置10は、脳画像取得部11と、灰白質体積演算部12と、主観的指標値取得部13と、判定部14と、を備える。脳画像取得部11は、特定の認知能力(例えば、3D映像に対する受容性)の有無の判定対象となるユーザの脳画像を取得する。灰白質体積演算部12は、脳画像取得部11により取得された脳画像の所定領域を関心領域に設定して、関心領域における灰白質体積を演算する。主観的指標値取得部13は、当該ユーザの特定の認知能力に関する主観的指標値(例えば、映像酔いに関する主観的指標値)を取得する。なお、脳画像取得部11、灰白質体積演算部12及び主観的指標値取得部13の詳細は、それぞれ、脳画像取得部211、灰白質体積演算部212及び主観的指標値取得部214で説明した通りである。
<Determination device>
The determination device 10 includes a brain image acquisition unit 11 , a gray matter volume calculation unit 12 , a subjective index value acquisition unit 13 and a determination unit 14 . The brain image acquisition unit 11 acquires a brain image of a user whose specific cognitive ability (for example, receptivity to 3D images) is determined. The gray matter volume calculation unit 12 sets a predetermined region of the brain image acquired by the brain image acquisition unit 11 as the region of interest, and calculates the gray matter volume in the region of interest. The subjective index value acquiring unit 13 acquires a subjective index value relating to specific cognitive ability of the user (for example, a subjective index value relating to motion sickness). The details of the brain image acquisition unit 11, the gray matter volume calculation unit 12, and the subjective index value acquisition unit 13 are explained in the brain image acquisition unit 211, the gray matter volume calculation unit 212, and the subjective index value acquisition unit 214, respectively. As I said.

判定部14は、灰白質体積演算部12で演算された灰白質体積に基づいて、ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定する。また、判定部14は、学習装置20における機械学習により生成される予測器14aを含んでもよい。なお、予測器14aは、蒸留(distillation)により生成又は蒸留により生成される新たな予測モデルを実装してもよい。蒸留では、学習装置20で機械学習された予測モデル22bへの入出力データを用いて新たな予測モデルが生成されてもよい。 Based on the gray matter volume calculated by the gray matter volume calculation unit 12, the determination unit 14 determines whether the user has a specific cognitive ability (for example, receptivity to 3D images). Also, the determination unit 14 may include a predictor 14 a generated by machine learning in the learning device 20 . It should be noted that the predictor 14a may implement new prediction models generated by distillation or generated by distillation. In the distillation, a new prediction model may be generated using input/output data to the prediction model 22b machine-learned by the learning device 20 .

具体的には、判定部14は、灰白質体積演算部12で演算された灰白質体積を予測器14aに入力して生成される予測値に基づいて、ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定してもよい。また、判定部14は、当該灰白質体積に加えて、主観的指標値取得部13で取得される主観的指標値を予測器14aに入力して生成される予測値に基づいて、ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定してもよい。当該予測値は、各ユーザの特定の認知能力に関する所定課題の成績の予測値(例えば、3D映像を用いたMOT課題の正答率の予測値)であってもよい。 Specifically, the determination unit 14 determines whether the user has a specific cognitive ability (for example, 3D receptivity to video). In addition to the gray matter volume, the determination unit 14 also inputs the subjective index value acquired by the subjective index value acquisition unit 13 to the predictor 14a to generate a prediction value based on the user-specified (eg, receptivity to 3D images). The predicted value may be a predicted value of the performance of a predetermined task related to each user's specific cognitive ability (for example, a predicted value of the correct answer rate of an MOT task using 3D video).

判定部14による判定結果は、後述する出力部10eに出力され、ユーザに表示されてもよい。或いは、当該判定結果は、通信部10cを介して他の装置に送信されてもよい。 The determination result by the determination unit 14 may be output to the output unit 10e, which will be described later, and displayed to the user. Alternatively, the determination result may be transmitted to another device via the communication unit 10c.

<ハードウェア構成>
次に、判定システム1内の各装置(例えば、判定装置10及び学習装置20の少なくとも一つ)のハードウェア構成を説明する。図4に示すように、判定システム1内の各装置は、演算装置に相当するCPU(Central Processing Unit)10aと、記憶装置10bと、通信部10cと、入力部10dと、出力部10eとを有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では、判定装置10及び学習装置20は、別々のコンピュータで構成されるが、一台のコンピュータで構成されてもよい。
<Hardware configuration>
Next, the hardware configuration of each device in the determination system 1 (for example, at least one of the determination device 10 and the learning device 20) will be described. As shown in FIG. 4, each device in the determination system 1 includes a CPU (Central Processing Unit) 10a corresponding to an arithmetic device, a storage device 10b, a communication section 10c, an input section 10d, and an output section 10e. have. These components are connected to each other via a bus so that data can be sent and received. In this example, the determination device 10 and the learning device 20 are composed of separate computers, but may be composed of a single computer.

CPU10aは、記憶装置10bに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、脳画像の所定領域を関心領域として演算される灰白質体積に基づいて特定の認知能力(例えば、3D映像に対する受容性)を判定するプログラム(判定プログラム)を実行する演算装置(演算部)であってもよい。CPU10aは、入力部10d及び/又は通信部10cから種々の入力データを受け取り、入力データの演算結果を出力部10eに出力(例えば、表示)したり、記憶装置10bに格納したり、又は、通信部10cを介して送信したりする。 The CPU 10a is a control unit that controls the execution of programs stored in the storage device 10b and performs data calculation and processing. The CPU 10a is an arithmetic device (calculation unit ). The CPU 10a receives various input data from the input unit 10d and/or the communication unit 10c, outputs (for example, displays) the calculation results of the input data to the output unit 10e, stores them in the storage device 10b, or communicates them. and transmitted via the unit 10c.

記憶装置10bは、メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、の少なくとも一つである。学習装置20の記憶装置10bは、記憶部22を構成してもよい。判定装置10の記憶装置10bは、CPU10aが実行する判定プログラムを記憶してもよい。 The storage device 10b is at least one of memory, HDD (Hard Disk Drive), and SSD (Solid State Drive). The storage device 10 b of the learning device 20 may constitute the storage unit 22 . The storage device 10b of the determination device 10 may store determination programs executed by the CPU 10a.

通信部10cは、判定システム1内の各装置を外部機器に接続するインターフェースである。なお、判定装置10及び学習装置20が一体の装置で構成される場合、通信部10cは、判定装置10として動作するプロセスと、学習装置20として動作するプロセスとの間のプロセス間通信を含んでよい。 The communication unit 10c is an interface that connects each device in the determination system 1 to an external device. Note that when the determination device 10 and the learning device 20 are configured as an integrated device, the communication unit 10c includes inter-process communication between the process operating as the determination device 10 and the process operating as the learning device 20. good.

入力部10dは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード、マウス、タッチパネル、マイクの少なくとも一つを含んでよい。 The input unit 10d receives data input from the user, and may include at least one of a keyboard, mouse, touch panel, and microphone, for example.

出力部10eは、CPU10aによる演算結果を出力するものであり、例えば、LCD(Liquid Crystal Display)等のディスプレイ及びスピーカの少なくとも一つにより構成されてよい。 The output unit 10e outputs the calculation result by the CPU 10a, and may be configured by at least one of a display such as an LCD (Liquid Crystal Display) and a speaker.

判定プログラムは、記憶装置10b等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10cにより接続されるネットワークNを介して提供されてもよい。当該判定プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ、CD-ROM又はDVD等の記憶媒体であってもよい。 The determination program may be provided by being stored in a computer-readable storage medium such as the storage device 10b, or may be provided via the network N connected by the communication unit 10c. The storage medium storing the determination program may be a non-transitory computer readable medium. The non-temporary storage medium is not particularly limited, and may be, for example, a USB memory, CD-ROM, DVD, or other storage medium.

判定装置10では、CPU10aが判定プログラムを実行することにより、図3を用いて説明した脳画像取得部11、灰白質体積演算部12、主観的指標値取得部13、判定部14の動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、判定装置10は、CPU10aと記憶装置10bが一体化したLSI(Large-Scale Integration)を備えていてもよい。 In the determination device 10, the CPU 10a executes the determination program, thereby realizing the operations of the brain image acquisition unit 11, the gray matter volume calculation unit 12, the subjective index value acquisition unit 13, and the determination unit 14 described with reference to FIG. be done. It should be noted that these physical configurations are examples, and do not necessarily have to be independent configurations. For example, the determination device 10 may include an LSI (Large-Scale Integration) in which the CPU 10a and the storage device 10b are integrated.

また、脳画像取得部11及び211、主観的指標値取得部13及び214、成績取得部213は、それぞれ、通信部10cで受信される脳画像、主観的指標値、特定の認知能力に関する所定課題(例えば、3D映像を用いたMOT課題)の成績を取得してもよいし、又は、記憶装置10b等のコンピュータによって読み取り可能な記憶媒体に記憶された脳画像、当該主観的指標値、当該成績を取得してもよい。 In addition, the brain image acquisition units 11 and 211, the subjective index value acquisition units 13 and 214, and the result acquisition unit 213 respectively receive the brain image received by the communication unit 10c, the subjective index value, and the predetermined task related to the specific cognitive ability. (For example, MOT task using 3D video) results may be acquired, or brain images, subjective index values, and results stored in a computer-readable storage medium such as the storage device 10b may be obtained.

(判定システムの動作)
<学習動作>
図5は、本実施形態に係る学習動作の一例を示すフローチャートである。なお、図5では、特定の認知能力の一例として3D映像に対する受容性を想定し、当該3D映像に対する受容性を予測する予測モデル22bの学習動作について説明する。
(Operation of judgment system)
<Learning action>
FIG. 5 is a flow chart showing an example of the learning operation according to this embodiment. Note that FIG. 5 assumes acceptability for 3D images as an example of specific cognitive ability, and the learning operation of the prediction model 22b that predicts acceptability for the 3D images will be described.

図5に示すように、ステップS101において、学習装置20は、各ユーザの脳画像を取得する。例えば、学習装置20は、MRI装置(例えば、3テスラMRI装置)により撮像された脳画像を取得してもよい。ステップS102において、学習装置20は、ステップS101において取得された脳画像の所定領域を関心領域に設定し、当該関心領域の灰白質体積を演算する。当該関心領域は、例えば、上頭頂小葉及び尾状核の少なくとも一部に対応する領域であってもよい。 As shown in FIG. 5, in step S101, the learning device 20 acquires a brain image of each user. For example, the learning device 20 may acquire brain images captured by an MRI device (eg, a 3 Tesla MRI device). In step S102, the learning device 20 sets the predetermined region of the brain image acquired in step S101 as the region of interest, and calculates the gray matter volume of the region of interest. The region of interest may be, for example, a region corresponding to at least part of the superior parietal lobule and the caudate nucleus.

ステップS103において、学習装置20は、各ユーザの映像酔いに関する主観的指標値(例えば、SSQ値)を取得する。例えば、知覚課題(例えば、3D映像を用いたMOT課題)後に各ユーザにSSQが実施され、当該SSQの回答に基づいて決定されたSSQ値が主観的指標値として取得されてもよい。 In step S103, the learning device 20 acquires a subjective index value (for example, an SSQ value) regarding motion sickness of each user. For example, an SSQ may be administered to each user after a perceptual task (for example, an MOT task using 3D video), and an SSQ value determined based on the answer to the SSQ may be obtained as a subjective index value.

ステップS104において、学習装置20は、各ユーザの3D映像を用いた知覚課題の成績を取得する。上記の通り、知覚成績情報は、知覚課題(例えば、3D映像を用いたMOT課題)の成績を示す情報(例えば、正答率)であってもよい。 In step S104, the learning device 20 acquires the score of each user's perceptual task using 3D images. As described above, the perceptual performance information may be information (for example, correct answer rate) indicating the performance of a perceptual task (for example, an MOT task using 3D video).

ステップS105において、学習装置20は、ステップS102で演算された灰白質体積とステップS103で取得された主観的指標値と、ステップS104で取得された知覚成績情報とを関連づけた学習用データ22aを用いた機械学習により、予測モデル22bの学習処理を実施してもよい。 In step S105, the learning device 20 uses learning data 22a that associates the gray matter volume calculated in step S102, the subjective index value obtained in step S103, and the perceptual performance information obtained in step S104. The learning process of the predictive model 22b may be performed by machine learning using conventional techniques.

なお、図5において、ステップS101、S103、S104の順序は問われない。また、図5において、ステップS103は省略されてもよい。ステップS103を省略する場合、ステップS105において、学習装置20は、ステップS102で演算された灰白質体積とステップS104で取得された成績とを関連づけた学習用データを用いた機械学習により、予測モデル22bの学習処理を実施してもよい。 In addition, in FIG. 5, the order of steps S101, S103, and S104 does not matter. Also, in FIG. 5, step S103 may be omitted. When omitting step S103, in step S105, the learning device 20 performs machine learning using learning data that associates the gray matter volume calculated in step S102 with the grades obtained in step S104, so that the prediction model 22b learning process may be performed.

<判定動作>
図6は、本実施形態に係る判定動作の一例を示す図である。なお、図6では、特定の認知能力の一例として3D映像に対する受容性を想定し、当該3D映像に対する受容性を判定する判定動作について説明する。
<Judgment operation>
FIG. 6 is a diagram showing an example of determination operation according to the present embodiment. Note that FIG. 6 assumes acceptability for 3D images as an example of specific cognitive ability, and the determination operation for determining acceptability for the 3D images will be described.

図6に示すように、ステップS201において、判定装置10は、3D映像に対する受容性の判定対象となるユーザの脳画像を取得する。ステップS202において、判定装置10は、ステップS201において取得された脳画像の所定領域を関心領域に設定し、当該関心領域の灰白質体積を演算する。ステップS203において、判定装置10は、当該ユーザの映像酔いに関する主観的指標値を取得する。なお、ステップS201、S202、S203の詳細は、図5のステップS101、S102、S103と同様である。 As shown in FIG. 6, in step S201, the determination device 10 acquires brain images of a user whose receptivity to 3D images is to be determined. In step S202, the determination device 10 sets the predetermined region of the brain image acquired in step S201 as the region of interest, and calculates the gray matter volume of the region of interest. In step S203, the determination device 10 acquires a subjective index value related to motion sickness of the user. Details of steps S201, S202, and S203 are the same as steps S101, S102, and S103 in FIG.

ステップS204において、判定装置10は、ステップS202で演算された灰白質体積及びステップS203で取得された主観的指標値を学習済みの予測器14aに入力して、当該予測器14aの出力として3D映像を用いた知覚課題の成績の予測値(成績予測値)を生成してもよい。当該成績予測値は、例えば、MOT課題の正答率又は点数の予測値であってもよい。 In step S204, the determination device 10 inputs the gray matter volume calculated in step S202 and the subjective index value obtained in step S203 to the learned predictor 14a, and outputs a 3D image as the output of the predictor 14a. may be used to generate predictions of perceptual task performance (performance predictions). The predicted grade value may be, for example, a predicted value of the percentage of correct answers or the score of the MOT task.

ステップS205において、判定装置10は、ステップS204で生成された成績予測値が所定の条件を満たすか否かを判定する。当該成績予測値が所定の条件を満たす場合、ステップS206において、判定装置10は、当該ユーザが3D映像に対する受容性を有すると判定する。一方、当該成績予測値が所定の条件を満たさない場合、ステップS207において、判定装置10は、当該ユーザが3D映像に対する受容性を有しないと判定する。 In step S205, the determination device 10 determines whether or not the predicted performance value generated in step S204 satisfies a predetermined condition. If the predicted result value satisfies a predetermined condition, in step S206, the determination device 10 determines that the user has receptivity to 3D images. On the other hand, if the predicted result value does not satisfy the predetermined condition, in step S207, the determination device 10 determines that the user is not receptive to 3D images.

なお、図6において、ステップS201、S203の順序は問われない。また、図6において、ステップS203は省略されてもよい。ステップS203を省略する場合、ステップS204において、判定装置10は、ステップS202で演算された灰白質体積を学習済みの予測器14aに入力して、当該予測器14aの出力として成績予測値を生成してもよい。 Note that in FIG. 6, the order of steps S201 and S203 does not matter. Also, in FIG. 6, step S203 may be omitted. When omitting step S203, in step S204, the determination device 10 inputs the gray matter volume calculated in step S202 to the learned predictor 14a, and generates a performance prediction value as the output of the predictor 14a. may

図7は、本実施形態に係る知覚課題の成績と3D映像に対する受容性との関係の一例を示す図である。図7に示すように、3D映像に対する受容性の有無の判定に用いられる所定の条件は、所定数の被験者に対する知覚課題の成績分布に基づいて決定されてもよい。図7では、78名の被験者に対して3D映像を用いた知覚課題(ここでは、MOT課題)を実施した場合の成績分布が示される。 FIG. 7 is a diagram showing an example of the relationship between the performance of the perceptual task and the acceptability for 3D images according to this embodiment. As shown in FIG. 7, the predetermined condition used to determine whether or not the 3D image is acceptable may be determined based on the perceptual task performance distribution for a predetermined number of subjects. FIG. 7 shows the distribution of results when 78 subjects performed a perceptual task using 3D images (here, MOT task).

例えば、図7に示すように、知覚課題の成績が分布する場合、3D映像に対する受容性を有すると判断される所定の条件は、当該成績が70%以上の正答率であることであってもよい。 For example, as shown in FIG. 7, when the results of the perceptual task are distributed, the predetermined condition to be judged to have receptivity to the 3D image is that the result is a correct answer rate of 70% or more. good.

例えば、図7の条件を用いる場合、図6のステップS204において予測器14aから出力される成績予測値が70%以上の正答率を示す場合、当該成績予測値に対応するユーザは、3D映像に対する受容性を有すると判断される。一方、図6のステップS204において予測器14aから出力される成績予測値が70%未満の正答率を示す場合、当該成績予測値に対応するユーザは、3D映像に対する受容性を有しないと判断される。 For example, when using the conditions in FIG. 7, if the predicted score value output from the predictor 14a in step S204 in FIG. Judged to be acceptable. On the other hand, when the predicted result value output from the predictor 14a in step S204 of FIG. 6 indicates a correct answer rate of less than 70%, it is determined that the user corresponding to the predicted result value does not have receptivity to 3D images. be.

なお、図7は一例にすぎず、3D映像に対する受容性を有すると判断される所定の条件は、当該成績が70%以上の正答率であることに限られない。当該所定の条件は、知覚課題の成績(例えば、正答率)と所定の閾値とに基づいて定められれば、どのような条件であってもよい。 Note that FIG. 7 is only an example, and the predetermined condition for determining that the subject has acceptability for 3D images is not limited to a correct answer rate of 70% or more. The predetermined condition may be any condition as long as it is determined based on the performance of the perceptual task (for example, percentage of correct answers) and a predetermined threshold.

図8は、本実施形態に係る3D映像に対する受容性の判定の効果の一例を示す図である。図8では、所定数(ここでは、48名)の被験者に対して所定期間(例えば、1ヶ月)、3D映像を用いたスポーツトレーニングを実施した場合の伸び率の分布が示される。 FIG. 8 is a diagram showing an example of the effect of determining the acceptability of a 3D image according to this embodiment. FIG. 8 shows the distribution of growth rates when a predetermined number (here, 48 subjects) of subjects undergo sports training using 3D images for a predetermined period (for example, one month).

図8では、48名の被験者のうち22名の伸び率が10%未満である。当該22名の被験者の脳画像に基づいて上頭頂小葉及び尾状核に対応する領域を関心領域として設定し、灰白質体積を演算した。当該灰白質体積を学習済みの予測器14aに入力して当該22名の被験者の3D映像に対する受容性を予め判定したところ、19名の被験者については3D映像に対する受容性が有しないと判定されていた。 In FIG. 8, 22 out of 48 subjects had an elongation rate of less than 10%. Based on the brain images of the 22 subjects, regions corresponding to the superior parietal lobule and the caudate nucleus were set as regions of interest, and gray matter volumes were calculated. When the gray matter volume was input to the learned predictor 14a and the receptivity to the 3D image of the 22 subjects was determined in advance, it was determined that 19 subjects had no receptivity to the 3D image. Ta.

したがって、学習済みの予測器14aを用いて3D映像に対する受容性がないと判定されるユーザに対し、3D映像を用いたスポーツトレーニングを実施しても、当該トレーニングの実施効果を適切に得られない可能性が高い。したがって、3D映像に対する受容性を有すると判定されるユーザに対して3D映像を用いたトレーニングを実施することで、トレーニングの実施効果を効率的に得ることができる。 Therefore, even if sports training using 3D video is performed for a user who is determined not to be receptive to 3D video using the learned predictor 14a, the effect of the training cannot be obtained appropriately. Probability is high. Therefore, by conducting training using 3D video for users who are determined to have receptivity to 3D video, it is possible to efficiently obtain training implementation effects.

なお、図8では、3D映像を用いた行為の一例としてスポーツトレーニングが示されているが、当該行為は、例えば、航空機の操縦、車両の運転、リハビリ、患者の手術等、3D映像を用いて実施されるどのような行為であってもよい。3D映像を用いた行為を実施する際に、学習済みの予測器14aを用いて3D映像に対する受容性の判定結果を考慮することで、当該行為の実施効果をより効率的に得ることができる。 In addition, in FIG. 8, sports training is shown as an example of an action using 3D images. It can be any action that is performed. By using the learned predictor 14a to consider the acceptability determination result for the 3D video when performing the action using the 3D video, the effect of performing the action can be obtained more efficiently.

以上のように、本実施形態に係る判定システムによれば、ユーザの脳画像に基づいて演算される当該ユーザの脳の所定領域の灰白質体積に基づいて、当該ユーザの3D映像に対する受容性を判定できる。このため、3D映像に対する受容性を有すると判定されたユーザに対して、3D映像を用いた行為を実施することにより、当該行為の実施効果を効率的に得ることができる。 As described above, according to the determination system according to the present embodiment, the acceptability of the user for 3D images is determined based on the gray matter volume of the predetermined region of the user's brain calculated based on the brain image of the user. I can judge. Therefore, by performing an action using a 3D image for a user determined to have receptivity to the 3D image, it is possible to efficiently obtain the effect of performing the action.

なお、上記実施形態では、脳の所定領域の灰白質体積に基づいて特定の認知能力(例えば、3D映像に対する受容性)が判定されるが、当該判定に用いられるパラメータは、脳機能及び脳構造の少なくとも一つを示すパラメータであれば、灰白質体積に限られない。例えば、灰白質体積に代えて又は加えて、当該脳の所定領域の拡散異方性度(Fractional Anisotropy(FA)値)が演算されてもよい。当該拡散異方性度は、脳の白質線維の質的・量的な変化を反映してもよい。当該拡散異方性度は、拡散強調画像に基づいて演算されてもよい。当該拡散強調画像は、例えば、MRIにより、水素原子の拡散を検出するために印加される傾斜磁場(拡散運動検出傾斜磁場(Motion Probing gradient(MPG)))を用いて取得されてもよい。また、安静時脳機能結合、ミエリンマップ、微細構造画像の少なくとも一つに基づいて決定されるパラメータが用いられてもよい。 In the above embodiment, a specific cognitive ability (for example, receptivity to 3D images) is determined based on the gray matter volume in a predetermined region of the brain, and the parameters used for the determination are brain function and brain structure. is not limited to gray matter volume, as long as it is a parameter that indicates at least one of For example, instead of or in addition to the gray matter volume, the diffusion anisotropy (Fractional Anisotropy (FA) value) of the predetermined region of the brain may be calculated. The diffusion anisotropy may reflect qualitative and quantitative changes in the white matter fibers of the brain. The diffusion anisotropy may be calculated based on the diffusion weighted image. The diffusion-weighted image may be obtained, for example, by MRI using a gradient magnetic field (Motion Probing gradient (MPG)) applied to detect the diffusion of hydrogen atoms. Alternatively, parameters determined based on at least one of resting brain functional connectivity, myelin maps, and ultrastructural images may be used.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are for facilitating understanding of the present invention, and are not intended to limit and interpret the present invention. Each element included in the embodiment and its arrangement, materials, conditions, shape, size, etc. are not limited to those illustrated and can be changed as appropriate. Also, it is possible to partially replace or combine the configurations shown in different embodiments.

1…判定システム、10…判定装置、20…学習装置、11…脳画像取得部、12…灰白質体積演算部、13…主観的指標値取得部、14…判定部、14a…予測器、21…生成部、22…記憶部、22a…学習用データ、22b…予測モデル、23…学習部、211…脳画像取得部、212…灰白質体積演算部、213…成績取得部、214…主観的指標値取得部、10a…CPU、10b…記憶装置、10c…通信部、10d…入力部、10e…出力部、I1、I2…脳画像、V…3D映像、X…切断面、100…HMD、101…第1表示部、102…第2表示部、103…センサー DESCRIPTION OF SYMBOLS 1... Determination system 10... Determination apparatus 20... Learning apparatus 11... Brain image acquisition part 12... Gray matter volume calculation part 13... Subjective index value acquisition part 14... Judgment part 14a... Predictor 21 Generating unit 22 Storage unit 22a Learning data 22b Prediction model 23 Learning unit 211 Brain image acquisition unit 212 Gray matter volume calculation unit 213 Results acquisition unit 214 Subjective Index value acquisition unit 10a CPU 10b storage device 10c communication unit 10d input unit 10e output unit I1, I2 brain image V 3D video X section plane 100 HMD 101... First display unit, 102... Second display unit, 103... Sensor

Claims (8)

ユーザの脳画像を取得する取得部と、
前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する演算部と、
前記演算された灰白質体積に基づいて、前記ユーザが三次元映像に対する受容性を含む特定の認知能力を有するか否かを判定する判定部と、
を備える判定装置。
an acquisition unit that acquires a user's brain image;
a computing unit that computes a gray matter volume in a predetermined region of the user's brain based on the brain image;
a determination unit that determines whether the user has specific cognitive abilities including receptivity to 3D images based on the calculated gray matter volume;
A determination device comprising:
各ユーザの脳画像に基づいて演算される前記所定領域の灰白質体積と各ユーザの前記特定の認知能力に関する所定課題の成績とを用いた機械学習に基づいて生成された予測器を更に備え、
前記判定部は、前記演算された灰白質体積を前記予測器に入力して生成される前記成績の予測値に基づいて、前記ユーザが前記特定の認知能力を有するか否かを判定する、
請求項1に記載の判定装置。
A predictor generated based on machine learning using the gray matter volume of the predetermined region calculated based on the brain image of each user and the performance of a predetermined task related to the specific cognitive ability of each user,
The determination unit determines whether the user has the specific cognitive ability based on the predicted value of the performance generated by inputting the calculated gray matter volume into the predictor.
The determination device according to claim 1.
前記機械学習には、前記灰白質体積及び前記成績に加えて、各ユーザの前記特定の認知能力に関する主観的指標値が用いられ、
前記取得部は、前記脳画像が取得された前記ユーザの前記特定の認知能力に関する主観的指標値を取得し、
前記予測値は、前記演算された灰白質体積及び前記取得された主観的指標値を前記予測器に入力して生成される、
請求項2に記載の判定装置。
In the machine learning, in addition to the gray matter volume and the performance, a subjective index value regarding the specific cognitive ability of each user is used,
The acquisition unit acquires a subjective index value related to the specific cognitive ability of the user from whom the brain image was acquired,
wherein the predicted value is generated by inputting the calculated gray matter volume and the obtained subjective index value into the predictor;
The determination device according to claim 2.
前記所定領域は、上頭頂小葉及び尾状核の少なくとも一部に対応する領域である、
請求項1から請求項3のいずれかに記載の判定装置。
The predetermined region is a region corresponding to at least part of the superior parietal lobule and the caudate nucleus,
The determination device according to any one of claims 1 to 3.
前記三次元映像は、所定の表示装置を用いて前記ユーザによって知覚され、
前記所定の表示装置は、前記ユーザの右目用の二次元映像を表示する第1表示部と左目用の二次元映像を表示する第2表示部とを具備する、
請求項1から請求項4のいずれかに記載の判定装置。
the three-dimensional image is perceived by the user using a predetermined display device;
The predetermined display device comprises a first display unit that displays a 2D image for the user's right eye and a second display unit that displays a 2D image for the left eye of the user.
The determination device according to any one of claims 1 to 4 .
前記所定の表示装置は、前記ユーザの所定部位に装着される装着型表示装置、又は、前記ユーザの所定部位に装着されない非装着型表示装置である、
請求項に記載の判定装置。
The predetermined display device is a wearable display device that is worn on a predetermined site of the user, or a non-wearable display device that is not worn on a predetermined site of the user.
The determination device according to claim 5 .
ユーザの脳画像を取得する工程と、
前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する工程と、
前記演算された灰白質体積に基づいて、前記ユーザが三次元映像に対する受容性を含む特定の認知能力を有するか否かを判定する工程と、
を有する判定方法。
obtaining a brain image of the user;
calculating a gray matter volume of a predetermined region of the user's brain based on the brain image;
determining whether the user has specific cognitive abilities , including receptivity to 3D images, based on the calculated gray matter volume;
A determination method having
判定装置に備えられた演算部を、
ユーザの脳画像を取得する取得部、
前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する演算部、及び、 前記演算された灰白質体積に基づいて、前記ユーザが三次元映像に対する受容性を含む特定の認知能力を有するか否かを判定する判定部、
として機能させる判定プログラム。
The calculation unit provided in the determination device,
an acquisition unit that acquires a brain image of a user;
a computing unit that computes a gray matter volume in a predetermined region of the user's brain based on the brain image; A determination unit that determines whether or not it has cognitive ability,
Judgment program that functions as
JP2019222384A 2019-12-09 2019-12-09 Determination device, determination method and determination program Active JP7334958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019222384A JP7334958B2 (en) 2019-12-09 2019-12-09 Determination device, determination method and determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019222384A JP7334958B2 (en) 2019-12-09 2019-12-09 Determination device, determination method and determination program

Publications (2)

Publication Number Publication Date
JP2021090549A JP2021090549A (en) 2021-06-17
JP7334958B2 true JP7334958B2 (en) 2023-08-29

Family

ID=76311307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019222384A Active JP7334958B2 (en) 2019-12-09 2019-12-09 Determination device, determination method and determination program

Country Status (1)

Country Link
JP (1) JP7334958B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI767447B (en) * 2020-12-11 2022-06-11 國立成功大學 Cognition evaluation system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007023522A1 (en) 2005-08-22 2007-03-01 National Center Of Neurology And Psychiatry Brain disease diagnosing supporting method and device
JP2014506150A (en) 2010-12-20 2014-03-13 コーニンクレッカ フィリップス エヌ ヴェ Method and system for identifying patients with mild cognitive impairment at risk of progression to Alzheimer's disease
JP2015084970A (en) 2013-10-31 2015-05-07 株式会社アラヤ・ブレイン・イメージング Individual characteristics prediction system, individual characteristics prediction method and program
US20180310870A1 (en) 2017-05-01 2018-11-01 The Charles Stark Draper Laboratory, Inc. Deep learning architecture for cognitive examination subscore trajectory prediction in alzheimer's disease
JP2019521379A (en) 2016-06-20 2019-07-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. Augmented Reality Display System for Evaluation and Correction of Neurological Disorders Including Visual Processing and Perception Disorders

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007023522A1 (en) 2005-08-22 2007-03-01 National Center Of Neurology And Psychiatry Brain disease diagnosing supporting method and device
JP2014506150A (en) 2010-12-20 2014-03-13 コーニンクレッカ フィリップス エヌ ヴェ Method and system for identifying patients with mild cognitive impairment at risk of progression to Alzheimer's disease
JP2015084970A (en) 2013-10-31 2015-05-07 株式会社アラヤ・ブレイン・イメージング Individual characteristics prediction system, individual characteristics prediction method and program
JP2019521379A (en) 2016-06-20 2019-07-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. Augmented Reality Display System for Evaluation and Correction of Neurological Disorders Including Visual Processing and Perception Disorders
US20180310870A1 (en) 2017-05-01 2018-11-01 The Charles Stark Draper Laboratory, Inc. Deep learning architecture for cognitive examination subscore trajectory prediction in alzheimer's disease

Also Published As

Publication number Publication date
JP2021090549A (en) 2021-06-17

Similar Documents

Publication Publication Date Title
Chang et al. Virtual reality sickness: a review of causes and measurements
RU2664397C2 (en) Virtual reality display system
Iskander et al. Using biomechanics to investigate the effect of VR on eye vergence system
US10768689B2 (en) System and method for providing virtual reality contents based on body information obtained from user
JP2015527760A (en) System and method for managing spatiotemporal uncertainty
Argelaguet et al. GiAnt: stereoscopic-compliant multi-scale navigation in VEs
Leroy et al. Real-time adaptive blur for reducing eye strain in stereoscopic displays
WO2014139574A1 (en) 3d-volume viewing by controlling sight depth
Buń et al. Application of professional and low-cost head mounted devices in immersive educational application
US20240085980A1 (en) Eye tracking using alternate sampling
JP7334958B2 (en) Determination device, determination method and determination program
Hibbard Virtual reality for vision science
Du et al. Learning from deep stereoscopic attention for simulator sickness prediction
US10602116B2 (en) Information processing apparatus, information processing method, and program for performing display control
Read et al. Balance and coordination after viewing stereoscopic 3D television
Stefanucci et al. Comparing distance judgments in real and augmented reality
Terzic et al. Causes of discomfort in stereoscopic content: a review
Lee et al. A study on virtual reality sickness and visual attention
Thai et al. On the use of” active breaks” to perform eye exercises for more comfortable VR experiences
JP7467094B2 (en) Information processing device, information processing method, and program
WO2021065170A1 (en) Binocular function measuring method, binocular function measuring program, design method for spectacle lens, manufacturing method for spectacle lens, and binocular function measuring system
McIntire et al. Microstereopsis is good, but orthostereopsis is better: Precision alignment task performance and viewer discomfort with a stereoscopic 3D display
US20200260945A1 (en) Panum&#39;s area measurement method, apparatus, and wearable display device
Naepflin et al. Can movement parallax compensate lacking stereopsis in spatial explorative search tasks?
Sharma et al. Using Artificial Intelligence to Bring Accurate Real-Time Simulation to Virtual Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230809

R150 Certificate of patent or registration of utility model

Ref document number: 7334958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150