WO2024070201A1 - ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラム - Google Patents

ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラム Download PDF

Info

Publication number
WO2024070201A1
WO2024070201A1 PCT/JP2023/028135 JP2023028135W WO2024070201A1 WO 2024070201 A1 WO2024070201 A1 WO 2024070201A1 JP 2023028135 W JP2023028135 W JP 2023028135W WO 2024070201 A1 WO2024070201 A1 WO 2024070201A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
image
unit
shading
specific
Prior art date
Application number
PCT/JP2023/028135
Other languages
English (en)
French (fr)
Inventor
浩史 野口
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2024070201A1 publication Critical patent/WO2024070201A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Definitions

  • the present invention relates to a head-mounted display, a control method for a head-mounted display, and a program.
  • Patent Document 1 There are techniques for avoiding noticeable or distracting visual artifacts when rendering video data when viewing the video data.
  • Patent Document 1 The technology described in Patent Document 1 is briefly described below. First, a video data stream is divided or segmented into scenes. Then, for a scene of the video data, any known metadata (e.g., luminance, etc.) is generated on a frame-by-frame basis as a desired function of the video content. Then, scene-invariant metadata is generated for the scene, which is different from the first set of metadata. The scene-invariant metadata is generated by monitoring desired features in the scene and is used to keep the desired features within an acceptable range of values. This allows for the avoidance of noticeable or distracting visual artifacts when rendering the video data.
  • any known metadata e.g., luminance, etc.
  • scene-invariant metadata is generated for the scene, which is different from the first set of metadata.
  • the scene-invariant metadata is generated by monitoring desired features in the scene and is used to keep the desired features within an acceptable range of values. This allows for the avoidance of noticeable or distracting visual artifacts when rendering the video data.
  • wearable devices also come in a wide variety of forms, including glasses and watches.
  • head-mounted displays to allow people to enjoy virtual reality and augmented reality.
  • Patent Document 1 Suppose the technology described in Patent Document 1 above is adopted in a wearable device. This makes it possible to avoid visual artifacts that are a nuisance to the wearable device user, but because this uses metadata from the video data, it is not possible to avoid certain emotions that may be a hindrance, such as negative emotions such as discomfort, that come into view in real time.
  • the present invention was made in consideration of such problems, and provides a head-mounted display, a control method for a head-mounted display, and a program that make it possible to avoid certain visually-induced feelings that may be disruptive, such as negative feelings such as discomfort.
  • One aspect of the head mounted display of the present invention includes a display control unit that controls the shading of the shading unit, a biometric information acquisition unit that acquires biometric information of a user, a spatial determination unit that determines whether an image corresponding to the user's field of view includes a specific image, and an emotion determination unit that determines whether the user has a specific emotion based on the biometric information acquired by the biometric information acquisition unit, and the display control unit controls the shading of the shading unit when it is determined that the image corresponding to the user's field of view includes a specific image and that the user has a specific emotion.
  • One aspect of the control method for the head mounted display of the present invention includes a display control step of controlling the shading of the shading part, a spatial determination step of determining whether an image corresponding to the user's field of view includes a specific image, and an emotion determination step of determining whether the user has a specific emotion based on the user's biometric information, and the display control step controls the shading of the shading part when the spatial determination step determines that the image corresponding to the user's field of view includes a specific image and the emotion determination step determines that the user has a specific emotion.
  • One aspect of the program of the present invention includes a display control step of controlling the shading of the shading part, a spatial determination step of determining whether an image corresponding to the user's field of view includes a specific image, and an emotion determination step of determining whether the user has a specific emotion based on the user's biometric information, and the display control step controls the shading of the shading part when the spatial determination step determines that the image corresponding to the user's field of view includes a specific image and the emotion determination step determines that the user has a specific emotion.
  • This invention makes it possible to suppress negative visually-induced emotions.
  • FIG. 1 is a block diagram showing a configuration of a head mounted display 1 according to the present embodiment.
  • FIG. 2 is a flowchart illustrating the processing of the head mounted display 1.
  • FIG. 3 is a diagram for explaining an example of a captured image.
  • FIG. 4 is a diagram for explaining an example of an image used for replacement.
  • FIG. 5 is another diagram for explaining an example of a captured image.
  • FIG. 6 is a diagram for explaining another example of an image presented to the user.
  • FIG. 7 is a diagram for explaining another example of an image presented to the user.
  • FIG. 8 is a diagram for explaining another example of an image presented to the user.
  • FIG. 1 is a block diagram showing a configuration example of a head mounted display 1 according to an embodiment of the present invention.
  • the head mounted display 1 has a light blocking function and controls a visually recognized image so that an image capable of reducing negative emotions of a user wearing the display is visually recognized.
  • FIG. 1 shows the parts related to the control of the visual image by the head mounted display 1, and does not show the mechanical configuration of the head mounted display 1 or other parts related to control.
  • the head mounted display 1 includes the functions of a light blocking unit 11, an imaging unit 12, a biometric information acquisition unit 13, a movement detection unit 14, a control unit 15, and a memory unit 16.
  • the shading section 11 is provided so as to cover the user's field of vision, and the shading is controlled based on the control of the control unit 15.
  • the shading section 11 is normally in a transparent state, and external light that passes through the shading section 11 is incident on the eyes of the user wearing the head mounted display 1. That is, the user views the scenery through the shading section 11. Then, based on the control of the control unit 15, part or all of the shading section 11 is shaded and a specified image is superimposed and displayed. That is, the user views the specified image on part or all of the scenery.
  • the imaging unit 12 is composed of a video camera, and captures the external environment, i.e., an image of the entire viewing angle that the user can see through the light-shielding unit 11 in a transparent state, at a predetermined frame rate that does not cause any problems as image information.
  • the biometric information acquisition unit 13 acquires biometric information from a biometric information detection unit (not shown) that detects the user's biometric information, such as a heart rate sensor attached to the user's body that measures the user's heart rate.
  • a biometric information detection unit (not shown) that detects the user's biometric information, such as a heart rate sensor attached to the user's body that measures the user's heart rate.
  • the motion detection unit 14 is, for example, an acceleration sensor, and detects acceleration corresponding to the movement of the head of the user wearing the head mounted display 1.
  • the control unit 15 controls each part of the head mounted display 1. Although not shown in the figure, the control unit 15 is composed of a CPU (Central Processing Unit), a memory section (ROM (Read Only Memory), RAM (Random Access Memory), non-volatile memory, etc.), and other elements including hardware.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • non-volatile memory etc.
  • the control unit 15 executes an application program 43 stored in the memory unit 16 to function as a space determination unit 31, an emotion determination unit 32, and a display control unit 33.
  • the control unit 15 may realize some or all of these functions by hardware.
  • the space determination unit 31 refers to the feature information data 41 stored in the memory unit 16 and determines whether or not the image corresponding to the user's field of view captured by the imaging unit 12 includes an image that gives the user negative emotions such as discomfort, anxiety, or fear. The space determination unit 31 also detects which part of the image corresponding to the user's field of view captured by the imaging unit 12 gives the user negative emotions.
  • the method used for image recognition etc. may be another method such as using AI (artificial intelligence).
  • the emotion determination unit 32 determines whether or not the user has a negative emotion based on the biometric information acquired by the biometric information acquisition unit 13.
  • the display control unit 33 refers to the modified image data 42 in the storage unit 16 to determine an image that can reduce the user's negative emotions.
  • the display control unit 33 also controls the shading of the shading unit 11 and the display of the shading portion so that the user can view the determined image.
  • the memory unit 16 stores characteristic information data 41, modified image data 42, and application programs 43.
  • the feature information data 41 is data for detecting, from images corresponding to the visual field of the user wearing the head mounted display 1, specific images that give the user negative feelings such as discomfort, anxiety, or fear. Specifically, it is feature amount information for detecting, for example, images that make a person with acrophobia feel high, images that make a person with claustrophobia feel closed in, images that make a person with acrophobia feel tips, or images that make a person with cluster phobia feel clusters.
  • the modified image data 42 is data of an image that is thought to be able to reduce the user's negative emotions by replacing an image that evokes negative emotions in the user.
  • it is data of an image such as a forest seen from a low position that is suitable for replacing an image that gives the impression of being high up, which can evoke negative emotions in a person with a fear of heights.
  • it is data of an image of a landscape from a vantage point that is suitable for replacing an image that gives the impression of being confined, such as the inside of an elevator, which can evoke negative emotions in a person with claustrophobia.
  • the feature information data 41 and the modified image data 42 correspond to a user (e.g., a user registered in advance) who uses the head mounted display 1.
  • the feature information data 41 includes feature amount information for detecting images that give the person with a fear of heights the feeling of height.
  • the modified image data 42 includes image data of a forest or the like seen from a low position.
  • the modified image data 42 may correspond to the feature information data 41.
  • the characteristic information data 41 and the modified image data 42 can be supplied from another device via a network interface (not shown), supplied from a specified storage medium via a storage medium reading device (not shown), or input by the user via an input device (not shown).
  • step S1 the space determination unit 31 acquires an image corresponding to the user's field of view from the image captured by the imaging unit 12. It is assumed that imaging by the imaging unit 12 is started at a predetermined timing, and that the image captured by the imaging unit 12 is supplied to the space determination unit 31.
  • the space determination unit 31 determines, based on the feature information data 41 stored in the memory unit 16, whether the image corresponding to the user's field of view acquired in step S1 includes an image that gives the user negative feelings such as discomfort, anxiety, or fear. Specifically, it determines, for example, whether the image includes an image that gives a sense of height to a person with acrophobia, an image that gives a sense of closed space to a person with claustrophobia, an image that gives a sense of sharp edges to a person with acrophobia, or an image that gives a sense of clusters to a person with collectiophobia. It also detects which parts of the image corresponding to the field of view give the user negative feelings.
  • step S3 the emotion determination unit 32 determines whether or not the user has negative emotions based on the biometric information acquired by the biometric information acquisition unit 13. It is assumed that the acquisition of biometric information by the biometric information acquisition unit 13 is started at a predetermined timing, and that the biometric information acquired by the biometric information acquisition unit 13 is supplied to the emotion determination unit 32.
  • step S4 the display control unit 33 determines whether the image viewed by the user needs to be changed based on whether the image corresponding to the user's field of view includes a specific image that evokes negative emotions in the user, and whether the user has negative emotions.
  • step S4 If it is determined in step S4 that the image corresponding to the user's field of view does not include an image for which the user has a negative emotion, or that the user does not have a negative emotion, it is determined that there is no need to change the image viewed by the user (determination of No), and the process returns to step S1, and the subsequent processes are repeated.
  • step S4 If it is determined in step S4 that the image corresponding to the user's field of view includes a specific image that evokes negative emotions in the user, and if it is determined that the user has negative emotions, it is determined that the image viewed by the user needs to be changed (determination of Yes), and in step S5, the display control unit 33 acquires the detection value of the motion detection unit 14.
  • step S6 the display control unit 33 controls the shading of the shading unit 11 and the display of the shading portion so that the user can view a specific image that can reduce negative emotions.
  • step S1 When the user is in an elevator, the user sees a scene that gives the user a feeling of claustrophobia, as shown in FIG. 3. If the user is registered as having claustrophobia, it is determined that the image corresponding to the user's field of view includes an image that gives the user negative emotions such as discomfort, anxiety, or fear (steps S1, S2, S4). Then, based on the biometric information acquired by the biometric information acquisition unit 13, it is determined that the user has negative emotions (steps S3, S4).
  • step S6 From the modified image data 42, for example, a landscape image from a vantage point as shown in FIG. 4 is obtained, and the entire shading portion 11 is shaded and controlled so that the image shown in FIG. 4 is displayed in that area (step S6).
  • the display control unit 33 detects whether or not the user's head is moving, and if so, in what direction, based on the detection value obtained from the motion detection unit 14, and controls the shading of the shading unit 11 and the display of the shading part based on the detection result. For example, if the user's head is moving only vertically (the elevator is rising and the user is looking ahead), the display of the shading unit 11 is controlled so that the image shown in Figure 4 changes to an image in which the viewpoint is rising (S5, S6). As a result, the user can perceive that he or she is rising.
  • step S1, S2, S4 it is determined that the image corresponding to the user's field of view does not include an image that gives the user negative emotions. Then, if it is determined that the user does not have negative emotions based on the biometric information acquired by the biometric information acquisition unit 13 (steps S3, S4), the shading and display control of the shading unit 11 is released. As a result, the user obtains a normal field of view.
  • the user When the user is in a conference room in a high-rise building, the user views a landscape including part W1 that gives the impression of height, as shown in FIG. 5. If the user is registered as having acrophobia, it is determined that the image corresponding to the user's field of view includes an image that gives the user negative emotions such as discomfort, anxiety, or fear (steps S1, S2, S4). Then, based on the biometric information acquired by the biometric information acquisition unit 13, it is determined that the user has negative emotions (steps S3, S4).
  • an image of a forest seen from a low position as shown in FIG. 6 is obtained from the modified image data 42, and the shading of the shading section 11 and the display of the shading section are controlled so that the user can see the image shown in FIG. 7 in which the part W1 giving the impression of height has been replaced with the image of the forest (step S6).
  • the display control section 33 may detect the movement of the head of the user wearing the head mounted display 1 using the movement detection section 14, and change the area in which the modified image data 42 is displayed in accordance with the movement of the user's head.
  • the user can see the image shown in FIG. 7. Also, by blocking only the portion W1 of the shading portion 11 that gives the impression of being at a high position, and displaying the image of the forest seen from a low position shown in FIG. 6 only at the pixel positions corresponding to this portion, while leaving the other portions transparent, the user can see the image shown in FIG. 7.
  • the image shown in FIG. 7 can be superimposed with an image W2 of another user in a remote location, as shown in FIG. 8, which is supplied from another device via a network interface (not shown).
  • step S1, S2, S4 If, for example, the user leaves the conference room shown in FIG. 5 or sits with their back to a window, and the portion W1 that gives the impression of being at a high altitude is no longer included in the user's field of vision, it is determined that the image corresponding to the user's field of vision does not include an image that gives the user negative emotions (steps S1, S2, S4). If it is determined that the user does not have negative emotions based on the biometric information acquired by the biometric information acquisition unit 13 (steps S3, S4), the shading and display control of the shading unit 11 is released. As a result, the user obtains a normal field of vision.
  • the display control unit 33 detected the user's movement based on the detection value obtained from the movement detection unit 14 and controlled the display of the shading portion in accordance with the movement, but the display control unit 33 can control whether or not to shade in accordance with the user's movement. Blocking a part or the whole of the shading section 11 may cause inconvenience because a part of the field of vision that can be seen is blocked. Therefore, the display control section 33 can perform control so that a part or the whole of the shading section 11 is blocked only when the user's head is not moving, based on the detection value of the movement detection section 14.
  • a time threshold may be set and images of spaces that give the user negative feelings may be detected for a certain period of time or more, or the above-mentioned processing may be performed only if the user's head has not moved.
  • This threshold is a value that can be set experimentally and empirically, and an operation input unit (not shown) may be further provided to enable the user to set the threshold. Furthermore, by providing an operation input unit (not shown), it may be possible to allow the user to give commands to fix or release the field of view provided to the user.
  • the biometric information acquisition unit 13 may acquire, for example, the pulse, body temperature, respiratory rate, brain waves, etc. of the user detected by another device, and the emotion determination unit 32 may determine whether or not the user is in a state of having negative emotions such as discomfort, anxiety, fear, etc., based on this information.
  • the biometric information acquisition unit 13 may also make a determination based on detection results such as the number of blinks and pupil opening obtained by an imaging element that images the vicinity of the eyeballs of the user wearing the head mounted display 1.
  • a plurality of imaging units 12 may be provided in order to capture an image of the entire viewing angle that the user can see through the light-shielding unit 11 in the transmitting state.
  • the imaging unit 12 can perform a predetermined image processing to convert the captured image into an image of the entire viewing angle that the user can see through the light-shielding unit 11 in the transmitting state.
  • the display control unit 33 acquires an image to be replaced with an image that evokes negative feelings in the user from the modified image data 42 stored in the storage unit 16.
  • the display control unit 33 may replace an image that evokes negative feelings in the user with some kind of texture, or may generate an image that appears out of focus or an image with very coarse pixels to replace the image.
  • the above-mentioned series of processes can be executed by hardware or by software.
  • the programs that make up the software are installed from a program recording medium into a computer that is built into dedicated hardware, or into a general-purpose personal computer, for example, that is capable of executing various functions by installing various programs.
  • the program executed by the computer may be a program in which processing is performed chronologically in the order described in this specification, or a program in which processing is performed in parallel or at the required timing, such as when called.
  • the above-mentioned head mounted display 1 is A display control unit 33 that controls the light blocking unit 11; a biometric information acquisition unit 13 for acquiring biometric information of a user; A space determination unit 31 that determines whether an image corresponding to the user's field of view (e.g., an image captured by the imaging unit 12) includes a specific image (e.g., a portion W1 that gives the impression of being at a high altitude in FIG.
  • a feeling determination unit that determines whether or not the user has a specific feeling (e.g., a negative feeling such as discomfort, anxiety, or fear) based on the biometric information acquired by the biometric information acquisition unit
  • the display control unit 33 controls the shading of the shading unit 11 when the spatial determination unit 31 determines that the image corresponding to the user's field of view contains a specific image and when the emotion determination unit 32 determines that the user has a specific emotion (e.g., Figures 4 and 7).
  • the user's field of vision includes a specific space that gives the user negative emotions, and the user is feeling negative emotions, the user can avoid the specific emotions that are somehow disturbing due to the user's vision, for example by reducing the negative emotions.
  • the head mounted display 1 can more effectively reduce negative emotions by controlling shading and display only when it is determined that the image corresponding to the user's field of view includes a specific image that evokes negative emotions in the user and when it is determined that the user has negative emotions. Normally, even in a specific space where the user evokes negative emotions, the user may not actually have negative emotions. In that case, the head mounted display 1 does not need to shade the shading portion 11 because the user does not have negative emotions. It is also possible that the user may have negative emotions regardless of the space viewed. In that case, the head mounted display 1 does not need to shade the shading portion 11 because the cause is a factor other than the space viewed.
  • the display control unit 33 determines that the image corresponding to the user's field of view contains a specific image and that the user has a specific emotion, it controls the shading of the shading unit 11 and displays an image that corresponds to the specific image.
  • the head mounted display 1 can allow a claustrophobic user to view a landscape from a vantage point instead of an image of a landscape that gives the feeling of being closed in.
  • the head mounted display 1 can also allow a user with a fear of heights to view an image of a forest seen from a low position instead of an image of a part that gives the feeling of being high up, allowing the user to avoid certain feelings that may be a hindrance due to their vision.
  • the head mounted display 1 includes: The apparatus further includes a movement detection unit 14 for detecting a movement of the user's head,
  • the display control unit 33 can control the shading of the shading unit 11 when it is determined that an image corresponding to the user's field of view includes a specific image, and when it is determined that the user has a specific emotion, and when the motion detection unit 14 detects that there is no horizontal movement of the user's head (e.g., Figures 4 and 7).
  • the user can avoid certain visually disturbing emotions, such as discomfort, while still ensuring safety.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

視覚により得られる不快を回避することができるヘッドマウントディスプレイを提供する。 ヘッドマウントディスプレイ1は、遮光部11の遮光を制御する表示制御部33と、ユーザの生体情報を取得する生体情報取得部13と、ユーザの視野に対応する画像が、特定の画像を含むか否かを判定する空間判定部31と、生体情報取得部13により取得された生体情報に基づいて、ユーザが特定の感情を有しているか否かを判定する感情判定部32とを備え、表示制御部33は、空間判定部31により、ユーザの視野に対応する画像が特定の空間を含むと判定され、かつ、感情判定部32によりユーザが特定の感情を有していると判定された場合、遮光部11の遮光を制御する。

Description

ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラム
 本発明は、ヘッドマウントディスプレイ、およびヘッドマウントディスプレイの制御方法、並びにプログラムに関する。
 映像データを視聴するにあたり、映像データのレンダリングに際して、目立つ、または、邪魔になる視覚的アーチファクトを回避するための技術がある(例えば、特許文献1)。
 特許文献1に記載の技術について簡単に説明する。まず、映像データストリームがシーンに分割または区分けされる。次に、映像データのある1つのシーンについて、映像コンテンツの所望の関数としての、任意の公知のメタデータ(例えば輝度など)がフレーム単位で生成される。そして、そのシーンについてのメタデータの第1のセットとは異なる、シーン不変的なメタデータが生成される。シーン不変的なメタデータは、シーン中における所望の特徴部を監視することによって生成され、その所望の特徴部を許容可能な範囲の値に保つために用いられる。これにより、映像データのレンダリングに際して、目立つ、または、邪魔になる視覚的アーチファクトを回避することができる。
 また、昨今、高速なCPUや高精細な画面表示技術、小型軽量のバッテリーの技術の進化と、無線ネットワーク環境の普及や広帯域化に伴い、情報機器が大きく進化している。そして、その代表例であるスマートフォンに加えて、所謂ウエラブルデバイスの普及が進んでいる。
 これらのウエラブルデバイスも、眼鏡タイプや、時計タイプなど多種多様な形態が存在する。特に、近年、仮想現実や拡張現実を楽しむために、ヘッドマウントディスプレイの開発が進んでいる。
特開2018-42253号公報
 ところで、閉所恐怖症を有する人にとって、例えば、エレベータなどに代表されるような狭くて閉じられた空間が視界に入り続けることは、恐怖、苦痛、不快を感じるものである。また、高所恐怖症を有する人にとって、例えば、高層ビルのオフィスの窓の外の景色などの高所が感じられる空間が視界に入り続けることは、恐怖、苦痛、不快を感じるものである。
 上述した特許文献1に記載の技術をウエラブルデバイスに採用したとする。それにより、ウエラブルデバイスの利用者に対して、邪魔になる視覚的アーチファクトを回避することはできるが、これは、映像データのメタデータを用いるものであるので、リアルタイムで視野に入る、例えば、不快等の負の感情など、何らかの障害になるような特定の感情を回避することはできない。
 本発明は、かかる問題に鑑みてなされたものであり、例えば、不快等の負の感情など、視覚により得られる、何らかの障害になるような特定の感情を回避することを可能とするヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラムを提供するものである。
 本発明のヘッドマウントディスプレイの一側面は、遮光部の遮光を制御する表示制御部と、ユーザの生体情報を取得する生体情報取得部と、ユーザの視野に対応する画像が、特定の画像を含むか否かを判定する空間判定部と、生体情報取得部により取得された生体情報に基づいて、ユーザが特定の感情を有しているか否かを判定する感情判定部とを備え、表示制御部は、ユーザの視野に対応する画像が特定の画像を含むと判定され、かつ、ユーザが特定の感情を有していると判定された場合、遮光部の遮光を制御する。
 本発明のヘッドマウントディスプレイの制御方法の一側面は、遮光部の遮光を制御する表示制御ステップと、ユーザの視野に対応する画像が、特定の画像を含むか否かを判定する空間判定ステップと、ユーザの生体情報に基づいて、ユーザが特定の感情を有しているか否かを判定する感情判定ステップとを含み、表示制御ステップは、空間判定ステップでユーザの視野に対応する画像が特定の画像を含むと判定され、かつ、感情判定ステップでユーザが特定の感情を有していると判定された場合、遮光部の遮光を制御する。
 本発明のプログラムの一側面は、遮光部の遮光を制御する表示制御ステップと、ユーザの視野に対応する画像が、特定の画像を含むか否かを判定する空間判定ステップと、ユーザの生体情報に基づいて、ユーザが特定の感情を有しているか否かを判定する感情判定ステップとを含み、表示制御ステップは、空間判定ステップで、ユーザの視野に対応する画像が特定の画像を含むと判定され、かつ、感情判定ステップでユーザが特定の感情を有していると判定された場合、遮光部の遮光を制御する。
 本発明によると、視覚により得られる負の感情を抑制することができる。
図1は、本実施の形態のヘッドマウントディスプレイ1の構成を示すブロック図である。 図2は、ヘッドマウントディスプレイ1の処理を説明するフローチャートである。 図3は、撮像された画像例について説明するための図である。 図4は、置き換えに用いられる画像例について説明するための図である。 図5は、撮像された画像例について説明するための他の図である。 図6は、ユーザに提示される他の画像例について説明するための図である。 図7は、ユーザに提示される他の画像例について説明するための図である。 図8は、ユーザに提示される他の画像例について説明するための図である。
[一実施の形態]
 以下に、本発明の一実施の形態に係るヘッドマウントディスプレイについて説明する。図1は、本発明の一実施の形態に係るヘッドマウントディスプレイ1の構成例を示すブロック図である。ヘッドマウントディスプレイ1は、遮光機能を有し、装着するユーザの負の感情を軽減することができる画像が視認されるように、視認画像を制御する。
 図1は、ヘッドマウントディスプレイ1による視認画像の制御に関わる部分を表しており、ヘッドマウントディスプレイ1における機構的構成、および他の制御に関わる部分の図示は省略する。
 ヘッドマウントディスプレイ1は、遮光部11、撮像部12、生体情報取得部13、動き検出部14、制御部15、および記憶部16の機能を含んで構成されている。
 遮光部11は、ユーザの視野を覆うように設けられ、制御部15の制御に基づいて、遮光が制御される。遮光部11は、通常は、透過状態であり、ヘッドマウントディスプレイ1を装着したユーザの眼には、遮光部11を透過した外光が入射する。すなわちユーザは、遮光部11を介して風景を視認する。そして、制御部15の制御に基づいて、遮光部11の一部または全部が、遮光され所定の画像が重畳表示される。すなわちユーザは風景の一部または全部において所定の画像を視認する。
 撮像部12は、ビデオカメラで構成され、外部環境、すなわち、透過状態の遮光部11を介してユーザが見ることができる視野角全体の画像を、画像情報として問題のない所定フレームレートで撮像する。
 生体情報取得部13は、例えば、ユーザの身体に取り付けられたユーザの心拍を計測する心拍センサなどのユーザの生体情報を検出する生体情報検出部(図示せず)から、生体情報を取得する。
 動き検出部14は、例えば、加速度センサなどであり、ヘッドマウントディスプレイ1を装着するユーザの頭部の動きに応じた加速度を検出する。
 制御部15は、ヘッドマウントディスプレイ1の各部を制御する。図示は省略するが、制御部15は、CPU(Central Processing Unit)、記憶部位(ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発メモリ等)、ハードウェアを含む、その他の要素から構成される。
 制御部15は、記憶部16に記憶されたアプリケーションプログラム43を実行することで、空間判定部31、感情判定部32、および表示制御部33として機能する。制御部15は、ハードウェアによって、これらの機能の一部または全部を実現してもよい。
 空間判定部31は、記憶部16に記憶されている特徴情報データ41を参照して、撮像部12により撮像されたユーザの視野に対応する画像が、ユーザが、不快、不安、恐怖等の負の感情を得る画像を含むか否かを判定する。また、空間判定部31は、撮像部12により撮像されたユーザの視野に対応する画像のうち、ユーザが負の感情を得る部分が、どの部分であるかを検出する。画像認識等のために用いられる方法は、例えば、AI(artificial intelligence:人工知能)を用いるなどの他の方法であってもよい。
 感情判定部32は、生体情報取得部13により取得された生体情報に基づいて、ユーザが負の感情を有しているか否かを判定する。
 表示制御部33は、空間判定部31により、撮像部12により撮像されたユーザの視野に対応する画像が、ユーザが負の感情を得る特定の画像を含むと判定され、かつ、感情判定部32によりユーザが負の感情を有していると判定された場合、記憶部16の変更画像データ42を参照して、ユーザの負の感情を軽減できる画像を決定する。また、表示制御部33は、ユーザが決定した画像を視認できるように遮光部11の遮光と遮光部分の表示を制御する。
 記憶部16には、特徴情報データ41、変更画像データ42、およびアプリケーションプログラム43が記憶されている。
 特徴情報データ41は、ヘッドマウントディスプレイ1を装着しているユーザの視野に対応する画像から、ユーザが、不快、不安、恐怖等の負の感情を得る特定の画像を検出するためのデータである。具体的には、例えば、高所恐怖症の人が高所を感じる画像、閉所恐怖症の人が閉所を感じる画像、先端恐怖症の人が先端を感じる画像、または、集合体恐怖症の人が集合体を感じる画像などを検出するためのそれらの画像の特徴量情報である。
 変更画像データ42は、ユーザが負の感情を得てしまう画像に対して、置き換えることにより、ユーザの負の感情を軽減できると考えられる画像のデータである。具体的には、例えば、高所恐怖症の人が負の感情を得てしまう高所を感じる画像に対して、置き換えるのに適している、低い位置から見た森などの画像のデータである。また、例えば、閉所恐怖症の人が負の感情を得てしまうエレベータ内などの閉所を感じる画像に対して、置き換えるのに適している、見晴らしの良いところからの風景などの画像のデータである。
 特徴情報データ41および変更画像データ42は、ヘッドマウントディスプレイ1を利用するユーザ(例えば、予め登録されたユーザ)に対応しているものとする。例えばユーザが、高所恐怖症である場合、特徴情報データ41には、高所恐怖症の人が高所を感じる画像を検出するための特徴量情報が含まれる。そして、変更画像データ42には、低い位置から見た森などの画像のデータが含まれる。または、変更画像データ42は特徴情報データ41に対応させてもよい。
 特徴情報データ41および変更画像データ42は、図示しないネットワークインタフェースを介して他の装置から供給されたり、図示しない記憶媒体読み取り装置を介して所定の記憶媒体から供給されたり、図示しない入力デバイスを介してユーザにより入力されることができる。
[視認画像制御処理の説明]
 次に、視認画像制御処理について説明する。初めに図2のフローチャートを参照して、処理の流れを説明し、その後、図3~8を参照して具体例を説明する。
 ステップS1において、空間判定部31は、撮像部12により撮像された画像から、ユーザの視野に対応する画像を取得する。撮像部12による撮像は所定のタイミングで開始されており、撮像部12により撮像された画像は空間判定部31に供給されているものとする。
 ステップS2において、空間判定部31は、記憶部16に記憶されている特徴情報データ41に基づいて、ステップS1で取得したユーザの視野に対応する画像に、ユーザが、不快、不安、恐怖等の負の感情を得る画像が含まれているか否かを判定する。具体的には、例えば、高所恐怖症の人が高所を感じる画像を含むか否か、閉所恐怖症の人が閉所を感じる画像を含むか否か、先端恐怖症の人が先端を感じる画像を含むか否か、または、集合体恐怖症の人が集合体を感じる画像を含むか否かが判定される。また視野に対応する画像のうち、ユーザが負の感情を得る部分は、どの部分であるかが検出される。
 ステップS3において、感情判定部32は、生体情報取得部13により取得された生体情報に基づいて、ユーザが負の感情を有しているか否かを判定する。生体情報取得部13による生体情報の取得は所定のタイミングで開始されており、生体情報取得部13により取得された生体情報は感情判定部32に供給されているものとする。
 ステップS4において、表示制御部33は、ユーザの視野に対応する画像が、ユーザが負の感情を得る特定の画像を含むか否か、ユーザが負の感情を有しているか否かに基づいて、ユーザに視認される画像の変更が必要であるか否かを判定する。
 ステップS4で、ユーザの視野に対応する画像が、ユーザが負の感情を有する画像を含まない、または、ユーザが負の感情を有していないと判定された場合、ユーザに視認される画像の変更が必要ではないとして(Noの判定)、処理は、ステップS1に戻り、それ以降の処理が繰り返される。
 ステップS4で、ユーザの視野に対応する画像が、ユーザが負の感情を得る特定の画像を含むと判定され、かつ、ユーザが負の感情を有していると判定された場合、ユーザに視認される画像の変更が必要であるとして(Yesの判定)、ステップS5において、表示制御部33は、動き検出部14の検出値を取得する。
 次に、ステップS6において、表示制御部33は、ユーザが、負の感情を軽減できる所定の画像を視認できるように遮光部11の遮光と遮光部分の表示を制御する。
 その後、処理は、ステップS1に戻り、それ以降の処理が繰り返される。
(具体例1)
 具体例を、図3,図4を参照して具体例を説明する。
 ユーザがエレベータに乗っている場合、ユーザは、図3に示すように、閉所を感じる風景を視認する。ユーザが閉所恐怖症として登録されている場合、ユーザの視野に対応する画像に、ユーザが、不快、不安、恐怖等の負の感情を得る画像が含まれると判定される(ステップS1,S2,S4)。そして生体情報取得部13により取得された生体情報に基づいて、ユーザが負の感情を有していると判定される(ステップS3,S4)。
 そして、変更画像データ42から、例えば、図4に示すような、見晴らしの良いところからの風景画像が取得され、遮光部11全体が遮光され、その部分に図4に示す画像が表示されるように制御される(ステップS6)。
 この際、表示制御部33は、動き検出部14から取得した検出値に基づいて、ユーザの頭部に動きがあるか否か、動きがあった場合はどの方向であるかを検出し、その検出結果に基づいて、遮光部11の遮光と遮光部分の表示を制御する。例えば、ユーザの頭部の動きが垂直方向のみである場合(エレベータが上昇し、ユーザが前を見ている場合)は、図4に示される画像が、視点が上昇する画像に変化するように、遮光部11の表示が制御される(S5,S6)。その結果、ユーザは、自分が上昇しているように認識できる。
 そして、例えば、エレベータの扉が開くことなどにより、ユーザは、エレベータの扉が開いた風景を視認すると、ユーザの視野に対応する画像に、ユーザが負の感情を得る画像が含まれないと判定される(ステップS1,S2,S4)。そして生体情報取得部13により取得された生体情報に基づいて、ユーザが負の感情を有していないと判定されると(ステップS3,S4)、遮光部11の遮光と表示の制御が解除される。その結果、ユーザは、通常の視野を得る。
(具体例2)
 他の具体例を、図5~図8を参照して具体例を説明する。
 ユーザが高層ビルの会議室にいる場合、ユーザは、図5に示すように、高所を感じさせる部分W1を含む風景を視認する。ユーザが高所恐怖症として登録されている場合、ユーザの視野に対応する画像に、ユーザが、不快、不安、恐怖等の負の感情を得る画像が含まれると判定される(ステップS1,S2,S4)。そして生体情報取得部13により取得された生体情報に基づいて、ユーザが負の感情を有していると判定される(ステップS3,S4)。
 そして、変更画像データ42から、例えば、図6に示すような、低い位置から見た森の画像が取得され、高所を感じさせる部分W1が、森の画像と置き替わった、図7に示される画像をユーザが視認できるように、遮光部11の遮光と遮光部分の表示が制御される(ステップS6)。なお、変更画像データ42を表示する際、表示制御部33は、動き検出部14によりヘッドマウントディスプレイ1を装着するユーザの頭部の動きを検出し、そのユーザの頭部の動きに応じて、変更画像データ42を表示するエリアを変更させてもよい。
 具体的には、遮光部11の全体を遮光し、図6に示される、低い位置から見た森の画像に、図5に示される画像のうちの高所を感じさせる部分W1以外を重畳させることにより、図7に示される画像をユーザに視認させることができる。また、遮光部11のうち、高所を感じさせる部分W1のみを遮光状態とし、この部分に対応する画素位置のみに、図6に示される低い位置から見た森の画像を表示させ、他の部分は透過状態とすることにより、図7に示される画像をユーザに視認させることができる。
 また、いわゆるリモート会議などを行う場合、図7に示される画像に対して、さらに、図8に示すように、図示しないネットワークインタフェースを介して他の装置から供給された、遠隔地にいる他のユーザの画像W2を重畳して視認されるようにもできる。
 そして、例えば、ユーザが、図5に示される会議室から退室することにより、または、窓を背にして着席することなどにより、ユーザの視野から、高所を感じさせる部分W1が含まれなくなった場合、ユーザの視野に対応する画像に、ユーザが負の感情を得る画像が含まれないと判定される(ステップS1,S2,S4)。そして生体情報取得部13により取得された生体情報に基づいて、ユーザが負の感情を有していないと判定されると(ステップS3,S4)、遮光部11の遮光と表示の制御が解除される。その結果、ユーザは、通常の視野を得る。
<動き検出の他の例>
 上述した具体例1の例では、表示制御部33は、動き検出部14から取得した検出値に基づいて、ユーザの動きを検出し、その動きに合わせて遮光部分の表示を制御したが、表示制御部33は、ユーザの動きに合わせて遮光するか否かを制御することができる。
 遮光部11の一部または全部を遮光することは、本来見ることができる視野の一部が遮られるため、不都合が生じる場合がある。そのため、表示制御部33は、動き検出部14の検出値に基づいて、ユーザの頭が動いていない場合に限り、遮光部11の一部または全部を遮光するように制御することもできる。
 例えば、具体例1において、ユーザが、扉が開いたエレベータに入ると、閉所を感じされる風景を視認することになるが、そのときユーザは、エレベータ内に移動している最中なので、ユーザ(の頭)は動いている。その後、操作パネルに対して降りたい階のボタンを押し、扉側を向いて降りたい階に到着を待つ状態になったとき(例えば、ユーザの頭部の水平方向の動きがないと検出された場合)、ユーザは静止しているとして上述したような画像が視認されるようになる。
 なおユーザ頭部の軽微な動きにより、ユーザが視認させる画像が頻繁に変更されてしまうことを防ぐため、例えば、時間的な閾値を設け、一定時間以上、ユーザが負の感情を得る空間の画像を検出したり、ユーザの頭部が動かなかった場合にのみ、上述した処理を行うようにしてもよい。この閾値は、実験的経験的に設定可能な値であり、また、図示しない操作入力部を更に設け、ユーザにより閾値を設定可能なようにしてもよい。さらに、図示しない操作入力部を設けることにより、ユーザにより、ユーザに提供される視野の固定や解除を指令することが可能なようにしてもよい。
<生体情報の他の例>
 生体情報取得部13は、例えば、他の装置により検出された、ユーザの、脈拍、体温、呼吸数、脳波などを取得してもよく、感情判定部32は、これらの情報に基づいて、ユーザが不快、不安、恐怖等の負の感情を持っている状態であるか否かを判定してもよい。また、生体情報取得部13は、ヘッドマウントディスプレイ1を装着しているユーザの眼球付近を撮像する撮像素子により得られる、例えば瞬きの回数や瞳孔の開きなどの検出結果に基づいて判定してもよい。
<撮像部12により撮像された画像の処理>
 撮像部12は、透過状態の遮光部11を介してユーザが見ることができる視野角全体の画像を撮像するために、複数設けられていてもよい。また、撮像部12の位置によって、透過状態の遮光部11を介してユーザが見ることができる画像が、撮像部12により撮像される画像と異なる場合、または、撮像部12が複数設けられている場合、撮像部12は、所定の画像処理を行って、撮像された画像を、透過状態の遮光部11を介してユーザが見ることができる視野角全体の画像に変換することができる。
<遮光部11の他の表示制御>
 表示制御部33は、ユーザが負の感情を得てしまう画像に対して、置き換えるべき画像を記憶部16に記憶されている変更画像データ42から取得すると説明している。その他にも表示制御部33は、例えば、ユーザが負の感情を得てしまう画像に対して、何らかのテクスチャで置き換えたり、ピントがずれたような画像、または、非常に画素の粗い画像を生成して、置き換えてもよい。
[実施形態の補足説明]
 上述した実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、構成要素、構成要素の配置位置および接続形態の順序、フローチャートにおける処理の順序等は、一例であり、本発明を限定する主旨ではない。また、各図は、必ずしも厳密に図示されたものではない。
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
[効果のまとめ]
 上述したヘッドマウントディスプレイ1は、 
 遮光部11の遮光を制御する表示制御部33と、
 ユーザの生体情報を取得する生体情報取得部13と、
 ユーザの視野に対応する画像(例えば、撮像部12により撮像された画像)が、特定の画像(例えば図5の高所を感じさせる部分W1)を含むか否かを判定する空間判定部31と、
 生体情報取得部13により取得された生体情報に基づいて、ユーザが特定の感情(例えば、不快、不安、恐怖等の負の感情)を有しているか否かを判定する感情判定部32とを備え、
 表示制御部33は、空間判定部31によりユーザの視野に対応する画像が特定の画像を含むと判定され、かつ、感情判定部32によりユーザが特定の感情を有していると判定された場合、遮光部11の遮光を制御する(例えば、図4、図7)。
 このような構成を有するようにしたので、ユーザの視野に、ユーザが負の感情を得る特定の空間が含まれ、かつユーザが負の感情を有している場合、ユーザは、例えば、負の感情を軽減することなど、視覚により得られる何らかの障害になるような特定の感情を回避することができる。
 ユーザの視野に対応する画像が、ユーザが負の感情を得る特定の画像を含むと判定され、かつ、ユーザが負の感情を有していると判定された場合にのみ、遮光と表示を制御するようにしたので、ヘッドマウントディスプレイ1は、より効果的に、負の感情を軽減できる。普通であれば、ユーザが負の感情を得る特定の空間であっても、実際にはユーザが負の感情を有さない場合もあり得る。その場合、ユーザが負の感情を有していないので、ヘッドマウントディスプレイ1は、遮光部11を遮光する必要がない。また視認する空間に関わらず、ユーザが負の感情を有することもあり得る。その場合、視認する空間以外の要因であることから、ヘッドマウントディスプレイ1は、遮光部11を遮光する必要がない。
 表示制御部33は、ユーザの視野に対応する画像が、特定の画像を含むと判定され、かつ、ユーザが特定の感情を有していると判定された場合、遮光部11の遮光を制御し、かつ、特定の画像と対応させた画像を表示する。
 このような構成を有するようにしたので、ヘッドマウントディスプレイ1は、閉所恐怖症のユーザに対しては、閉所を感じされる風景の画像に代えて、見晴らしの良いところからの風景を視認させることができる。またヘッドマウントディスプレイ1は、高所恐怖症のユーザに対しては、高所を感じさせる部分の画像に代えて、低い位置から見た森の画像を視認させることができ、ユーザは、視覚により得られる何らかの障害になるような特定の感情を回避することができる。
 また、ヘッドマウントディスプレイ1は、
 ユーザの頭部の動きを検出する動き検出部14を更に備え、
 表示制御部33は、ユーザの視野に対応する画像が、特定の画像を含むと判定され、かつ、ユーザが特定の感情を有していると判定された場合であって、かつ、動き検出部14により、ユーザの頭部の水平方向の動きがないと検出された場合、遮光部11の遮光を制御することができる(例えば、図4、図7)。
 このような構成を有するようにしたので、ユーザは、安全性が担保されたうえで、例えば、不快など、視覚により得られる何らかの障害になるような特定の感情を回避することが可能である。
 1…ヘッドマウントディスプレイ、 11…遮光部、 12…撮像部、 13…生体情報取得部、 14…動き検出部、 15…制御部、 16…記憶部、 31…空間判定部、 32…感情判定部、 33…表示制御部、 41…特徴情報データ、 42…変更画像データ、 43…アプリケーションプログラム

 

Claims (5)

  1.  遮光部の遮光を制御する表示制御部と、
     ユーザの生体情報を取得する生体情報取得部と、
     前記ユーザの視野に対応する画像が、特定の画像を含むか否かを判定する空間判定部と、
     前記生体情報取得部により取得された前記生体情報に基づいて、前記ユーザが特定の感情を有しているか否かを判定する感情判定部と
     を備え、
     前記表示制御部は、前記ユーザの視野に対応する画像が、前記特定の画像を含むと判定され、かつ、前記ユーザが前記特定の感情を有していると判定された場合、前記遮光部の遮光を制御する
     ヘッドマウントディスプレイ。
  2.  請求項1に記載のヘッドマウントディスプレイであって、
     前記表示制御部は、前記ユーザの視野に対応する画像が、前記特定の画像を含むと判定され、かつ、前記ユーザが前記特定の感情を有していると判定された場合、前記遮光部の遮光を制御し、かつ、前記特定の画像と対応させた画像を表示する
     ことを特徴とするヘッドマウントディスプレイ。
  3.  請求項1または2に記載のヘッドマウントディスプレイであって、
     前記ユーザの頭部の動きを検出する動き検出部を更に備え、
     前記表示制御部は、前記ユーザの視野に対応する画像が、前記特定の画像を含むと判定され、かつ、前記ユーザが前記特定の感情を有していると判定された場合であって、かつ、前記ユーザの前記頭部の水平方向の動きがないと検出された場合、前記遮光部の遮光を制御する
     ヘッドマウントディスプレイ。
  4.  遮光部を有するヘッドマウントディスプレイの制御方法において、 
     前記遮光部の遮光を制御する表示制御ステップと、
     ユーザの視野に対応する画像が、特定の画像を含むか否かを判定する空間判定ステップと、
     前記ユーザの生体情報に基づいて、前記ユーザが特定の感情を有しているか否かを判定する感情判定ステップと
     を含み、
     前記表示制御ステップは、前記ユーザの視野に対応する画像が、前記特定の画像を含むと判定され、かつ、前記ユーザが前記特定の感情を有していると判定された場合、前記遮光部の遮光を制御する
     ことを特徴とするヘッドマウントディスプレイの制御方法。
  5.  遮光部を有するヘッドマウントディスプレイが有するコンピュータが実行するプログラムであって、
     前記遮光部の遮光を制御する表示制御ステップと、
     ユーザの視野に対応する画像が、特定の画像を含むか否かを判定する空間判定ステップと、
     前記ユーザの生体情報に基づいて、前記ユーザが特定の感情を有しているか否かを判定する感情判定ステップと
     を含み、
     前記表示制御ステップは、前記ユーザの視野に対応する画像が、前記特定の画像を含むと判定され、かつ、前記ユーザが前記特定の感情を有していると判定された場合、前記遮光部の遮光を制御する
     を含むことを特徴とする処理をコンピュータに実行させるプログラム。
PCT/JP2023/028135 2022-09-27 2023-08-01 ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラム WO2024070201A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022154090A JP2024048188A (ja) 2022-09-27 2022-09-27 ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラム
JP2022-154090 2022-09-27

Publications (1)

Publication Number Publication Date
WO2024070201A1 true WO2024070201A1 (ja) 2024-04-04

Family

ID=90477035

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/028135 WO2024070201A1 (ja) 2022-09-27 2023-08-01 ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP2024048188A (ja)
WO (1) WO2024070201A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170371411A1 (en) * 2016-06-28 2017-12-28 Brillio LLC Method and system for adapting content on hmd based on behavioral parameters of user
US20180180891A1 (en) * 2016-12-23 2018-06-28 Samsung Electronics Co., Ltd. Electronic device and method of controlling the same
JP2023036171A (ja) * 2021-09-02 2023-03-14 エヌ・ティ・ティ・コミュニケーションズ株式会社 ユーザ行動支援装置、方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170371411A1 (en) * 2016-06-28 2017-12-28 Brillio LLC Method and system for adapting content on hmd based on behavioral parameters of user
US20180180891A1 (en) * 2016-12-23 2018-06-28 Samsung Electronics Co., Ltd. Electronic device and method of controlling the same
JP2023036171A (ja) * 2021-09-02 2023-03-14 エヌ・ティ・ティ・コミュニケーションズ株式会社 ユーザ行動支援装置、方法およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAGIWARA, SAKI; KURIHARA, KAZUTAKA.: "Development and Evaluation of a "Gaze Phobic KOMYUSHO" Support System using See-through HMD based on Social Welfare Approach.", COMPUTER SOFTWARE, JAPAN SOCIETY FOR SOFTWARE SCIENCE AND TECHNOLOGY, vol. 33, no. 1, 26 January 2016 (2016-01-26), pages 52 - 62, XP009533742, ISSN: 0289-6540, DOI: 10.11309/jssst.33.1_52 *
KANNO, RISA; SUZUKI, YU: "Mememegane: A Face-to-Face Communication Support Tool for a Morbid Fear of Looking Somebody in the Face", IPSJ INTERACTION 2017; MARCH 2-4, 2017, INFORMATION PROCESSING SOCIETY OF JAPAN, TOKYO, 1 January 2017 (2017-01-01) - 4 March 2017 (2017-03-04), Tokyo, pages 383 - 384, XP009554321 *

Also Published As

Publication number Publication date
JP2024048188A (ja) 2024-04-08

Similar Documents

Publication Publication Date Title
JP6577137B2 (ja) サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法
CN108153424B (zh) 头显设备的眼动和头动交互方法
US9645395B2 (en) Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
US9968176B2 (en) Image processing method and image processing device
US20180088682A1 (en) Head mounted display
US8594381B2 (en) Method of identifying motion sickness
CN110121885A (zh) 用于利用注视跟踪的vr、低等待时间无线hmd视频流传输的有凹视频链接
EP3117290B1 (en) Interactive information display
JP7092108B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2013018267A1 (ja) 提示制御装置、及び提示制御方法
US20100066840A1 (en) Image processing device and image processing method
CN108885799A (zh) 信息处理设备,信息处理系统以及信息处理方法
JP2020042807A (ja) フォービエイテッド・レンダリング・システムおよび方法
JP2005503611A (ja) 携帯用仮想現実システム
JP2006202181A (ja) 画像出力方法および装置
CN111103688A (zh) 一种防晕眩设备、系统和方法
JP2006267604A (ja) 複合情報表示装置
WO2019187732A1 (ja) 情報処理装置、情報処理方法およびプログラム
US11507184B2 (en) Gaze tracking apparatus and systems
CN116710181A (zh) 用于相对于用户身体更新设备的显示器的系统、方法和图形用户界面
JPWO2020016970A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2024070201A1 (ja) ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラム
EP3625673A1 (en) Methods and systems for viewing and editing ar/vr computer-based designs allowing impaired vision simulation
US10990167B1 (en) Display apparatus and method using projection matrices to generate image frames
GB2525304B (en) Interactive information display

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23871443

Country of ref document: EP

Kind code of ref document: A1