WO2023053517A1 - 視認性情報取得装置の制御方法および視認性情報取得装置 - Google Patents

視認性情報取得装置の制御方法および視認性情報取得装置 Download PDF

Info

Publication number
WO2023053517A1
WO2023053517A1 PCT/JP2022/012970 JP2022012970W WO2023053517A1 WO 2023053517 A1 WO2023053517 A1 WO 2023053517A1 JP 2022012970 W JP2022012970 W JP 2022012970W WO 2023053517 A1 WO2023053517 A1 WO 2023053517A1
Authority
WO
WIPO (PCT)
Prior art keywords
identifier
visibility
display
subject
information acquisition
Prior art date
Application number
PCT/JP2022/012970
Other languages
English (en)
French (fr)
Inventor
大輔 根岸
英則 堀田
克典 岡嶋
峻平 大貫
Original Assignee
スズキ株式会社
国立大学法人横浜国立大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スズキ株式会社, 国立大学法人横浜国立大学 filed Critical スズキ株式会社
Priority to CN202280064035.4A priority Critical patent/CN117980987A/zh
Priority to KR1020247007968A priority patent/KR20240035929A/ko
Priority to US18/695,238 priority patent/US20240274043A1/en
Priority to EP22875400.8A priority patent/EP4411718A1/en
Publication of WO2023053517A1 publication Critical patent/WO2023053517A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0257Reduction of after-image effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present invention relates to a visibility information acquisition device control method and a visibility information acquisition device.
  • Patent Document 1 discloses a virtual space image providing method for providing a virtual space image visually recognized by a user to a head mounted display (HMD).
  • HMD head mounted display
  • the rotation direction and the rotation speed of the HMD are obtained, and in the end regions on both sides of the virtual space image in the direction on the screen corresponding to the rotation direction, with the range and intensity corresponding to the rotation speed.
  • VR Virtual Reality
  • the present invention has been made with a focus on the above-mentioned points. It is an object of the present invention to provide a control method of a visibility information acquisition device and a visibility information acquisition device capable of acquiring in the above.
  • one aspect of the present invention is to display a first identifier at a first position in front of a subject, and to display a second identifier at a second position spaced in the front-rear direction with respect to the first position.
  • a control method for a visibility information acquisition device that acquires visibility information of the second identifier when the identifier is displayed and the viewpoint of the subject is moved from the first position to the second position.
  • This control method comprises: a first display step of displaying the first identifier at the first position so that the subject is focused on the first position; and the second identifier at the second position.
  • a display state of the second identifier is controlled according to a preset transition condition to display the second identifier a control step of transitioning the visibility of the second identifier from a reference state to a target state different from the reference state; and an obtaining step of obtaining from the subject.
  • the control method of the visibility information acquisition device According to the control method of the visibility information acquisition device according to the present invention, information necessary for generating a virtual space image that achieves visibility close to the appearance of the real space when the subject's viewpoint moves can be obtained with high accuracy.
  • FIG. 1 is a conceptual diagram showing the configuration of a visibility information acquisition device according to an embodiment of the present invention
  • FIG. FIG. 4 is a conceptual diagram showing an example of a display unit realized in real space in the embodiment
  • FIG. 4 is a conceptual diagram showing an example of a display unit realized in virtual space in the embodiment
  • 10 is a flowchart showing an example of visibility information acquisition processing when the viewpoint moves away in the above embodiment.
  • FIG. 10 is a diagram showing an example of an identifier displayed in a virtual space image when the viewpoint moves away from the user in the embodiment; It is a graph which shows an example of the temporal change of the visibility of the 2nd identifier whose display state is controlled according to transition conditions in the said embodiment.
  • FIG. 10 is a diagram showing an example of an identifier displayed in a virtual space image when the viewpoint moves in a direction of approaching in the embodiment
  • FIG. 4 is a diagram showing an example of determining a transition condition suitable for a driving simulator system based on the visibility information acquired by the visibility information acquisition device of the embodiment, and performing display control of a virtual space image according to the transition condition; .
  • FIG. 1 is a conceptual diagram showing the configuration of a visibility information acquisition device according to one embodiment of the present invention.
  • the visibility information acquisition device 1 of this embodiment includes, for example, a display unit 2 and an information processing unit 3.
  • the display unit 2 can display the first identifier at a first position in front of the subject S seated at a predetermined position, and can display the second identifier at a second position spaced in the front-rear direction from the first position. can be displayed.
  • Each of the first position and the second position includes a position in virtual space as well as a position in real space.
  • the display unit 11 according to the present embodiment may be implemented by, for example, arranging two display devices in the real space, or setting two display areas in the virtual space using a head mounted display (HMD) or the like. can be realized by
  • HMD head mounted display
  • FIG. 2 is a conceptual diagram showing an example of the display unit 2 implemented in the physical space.
  • the display unit 2 includes a tablet terminal 21 arranged at a position near the front of the subject S (hereinafter referred to as a "near position") Pn, and a position far in front of the subject S (hereinafter referred to as a "distant position"). ) and a display 22 located at Pf.
  • the tablet terminal 21 and the display 22 are arranged substantially in front of the subject S, respectively.
  • the tablet terminal 21 is installed diagonally below the front of the subject S with the screen facing the subject S side.
  • an identifier In is displayed in an area positioned substantially in the center.
  • the display 22 is installed at a height that does not overlap with the tablet terminal 21 within the field of view of the subject S.
  • an identifier If is displayed in an area positioned substantially in the center.
  • the distance Dn (FIG. 1) from the subject S to the tablet terminal 21 is set to 0.2 m, for example, and the distance Df (FIG. 1) from the subject S to the display 22 is set to 5 m, for example. It is However, the arrangement of the tablet terminal 21 and the display 22 is not limited to the above example.
  • the display unit 2 when the subject S's viewpoint is moved from the tablet terminal 21 arranged at the near position Pn to the display 22 arranged at the far position Pf (hereinafter referred to as "movement of the viewpoint in the direction of moving away"),
  • the position Pn, the identifier In and the tablet terminal 21 correspond to the first position, the first identifier and the first display device of the present invention, while the far position Pf, the identifier If and the display 22 correspond to the second position and the first display device of the present invention. 2 identifier and a second display.
  • the far position Pf, the identifier If and the display 22 correspond to the first position, the first identifier and the first display device of the present invention, and the near position Pn, the identifier In and the tablet terminal 21 correspond to the second position, the second identifier and the first display device of the present invention. 2 display device.
  • FIG. 3 is a conceptual diagram showing an example of the display section 2' implemented in the virtual space.
  • the display unit 2' is implemented on a virtual space image VR displayed on the HMD mounted on the subject's S head.
  • a first region 21' is formed below the central portion in the horizontal direction
  • a second region 22' is formed above the central portion in the horizontal direction.
  • the first region 21' and the second region 22' are set so as to be spaced apart in the depth direction (the front-rear direction as seen from the subject S) in the virtual space.
  • the first area 21' is a virtual representation of the screen of the tablet terminal 21 in the real space shown in FIG.
  • the second area 22' is a virtual representation of the screen of the display 22 in the real space shown in FIG.
  • information corresponding to the near position Pn is set as the depth information of the first region 21'
  • the second region 22 ' information corresponding to the far position Pf (distance Df from the subject S) is set.
  • An identifier In is displayed approximately in the center of the first area 21'
  • an identifier If is displayed approximately in the center of the second area 22'.
  • the information processing section 3 includes, for example, a storage section 31, a display control section 32, a notification section 33, an information acquisition section 34, and a condition change section 35 as its functional blocks.
  • the hardware configuration of the information processing section 3 is configured using, for example, a computer system including a processor, a memory, a user input interface, and a communication interface. That is, the information processing section 3 realizes the functions of the above blocks by reading and executing the programs stored in the memory by the processor of the computer system.
  • the storage unit 31 changes the visibility of the second identifier (identifier In or If) to be displayed in the region around the viewpoint of the movement destination from the reference state to a target state different from the reference state when the viewpoint of the subject S moves. It stores transition conditions that cause A desired visibility level can be set for the reference state of visibility, and the height of the visibility level may be adjustable.
  • the target state of visibility is set to be higher than the reference state.
  • the setting of the reference state and target state of visibility is not limited to the above example, and it is also possible to set a target state lower than the reference state.
  • the transition conditions include, for example, a display time T for continuing the display of the second identifier, a delay time L from when the subject S's viewpoint movement is completed until the visibility state transition of the second identifier starts, It includes a transition time ⁇ required for the transition from the reference state to the target state of the visibility of the identifier, and a time constant ⁇ that determines the temporal change in the degree of increase when the visibility of the second identifier is increased.
  • the storage unit 31 also stores image data of identifiers In and If to be displayed on the display unit 2 . Furthermore, the visibility information of the second identifier acquired by the information acquiring section 34 and the like are also stored and accumulated in the storage section 31 .
  • the transition conditions may be stored in the storage unit 31 in advance, or the transition conditions received from an external device (not shown) may be temporarily stored in the storage unit 31 and output to the display control unit 32 . Details of the transition condition, the image data of the identifiers In and If, and the visibility information of the second identifier will be described later.
  • the display control unit 32 causes the display unit 2 to display the second identifier after displaying the first identifier, and controls the display state of the second identifier according to the transition conditions stored in the storage unit 31 . Specifically, when the visibility information corresponding to the movement of the viewpoint in the moving away direction is acquired, the display control unit 32 displays the identifier In is displayed, the identifier If is displayed on the display 22 of the display unit 2 (or the second area 22' of the display unit 2'), and the display state of the identifier If is controlled according to the transition condition.
  • the display control unit 32 causes the display 22 of the display unit 2 (or the second area 22′ of the display unit 2′) to display the identifier If.
  • the identifier In is displayed on the tablet terminal 21 of the display unit 2 (or the first area 21' of the display unit 2'), and the display state of the identifier In is controlled according to the transition condition.
  • the state of visibility of the second identifier is controlled by, for example, blurring the image displayed as the second identifier.
  • Blur processing is processing that changes the amount of information in image data so that the image appears blurred.
  • the blurring process is image processing that reduces the amount of information that the subject S can visually confirm.
  • Specific examples of blurring processing include processing to reduce the amount of information, processing to lower the resolution, processing to gradually reduce the display area, and processing to gradually increase the display area for the image displayed as the second identifier. , or a combination of these processes.
  • a process of increasing the display area in stages and a process of decreasing the display area in stages can be performed in order or alternately to easily reproduce the out-of-focus state. .
  • the reference state of the visibility of the second identifier is, for example, an out-of-focus blurred state after the blurring process is performed, and represents a state in which the amount of information that the user U can visually confirm about the image is small.
  • the target state of visibility of the second identifier is, for example, a state in which the image is in focus before the blurring process is performed, and represents a state in which the user U can visually confirm the image with a large amount of information.
  • the notification unit 33 generates an alert sound (not shown) provided in the display unit 2, 2' or the information processing unit 3 for prompting the subject S to move the viewpoint from the first position to the second position. Output via a speaker or the like.
  • the notification unit 33 generates an alert sound in conjunction with the display control unit 32 .
  • the notification unit 33 outputs an alert sound after a predetermined time (for example, 2 to 5 seconds) has elapsed since the display control unit 32 displayed the first identifier on the display unit 2 .
  • the timing when the alert sound is output from the notification unit 33 substantially coincides with the timing when the second identifier is displayed on the display units 2 and 2 ′ by the display control unit 32 .
  • the notification means to the subject S by the notification part 33 is not limited to an alert sound.
  • characters or the like prompting to move the viewpoint may be displayed, or the experiment manager may shout to prompt the subject S to move the viewpoint.
  • the notification may be given without the information to prompt the subject to move from the first position to the second position.
  • the information acquisition unit 34 acquires the visibility information of the second identifier from the subject S during the transition from the reference state of the visibility of the second identifier to the target state.
  • the visibility information of the second identifier is, for example, information indicating the result of evaluation by the subject S on how the second identifier looks when the visibility transitions from the reference state to the target state, It is information indicating the result of detection of the focus position of the subject S by a sensor or the like (not shown).
  • the information indicating the evaluation result of the appearance of the second identifier by the subject S is input to the information acquisition unit 34 via a user input interface (not shown) connected to the information processing unit 3, or the subject S
  • An output signal from a sensor or the like that detects the focal position of is input to the information acquisition unit 34, and the input information to the information acquisition unit 34 is acquired as the visibility information of the second identifier.
  • the visibility information acquired by the information acquisition unit 34 is stored in the storage unit 31 in association with the corresponding transition condition.
  • the condition changing unit 35 changes the transition condition stored in the storage unit 31 based on the visibility information of the second identifier acquired by the information acquiring unit 34 .
  • the transition condition changed by the condition changing unit 35 is used when obtaining visibility information from the next time onward. It should be noted that the condition changing unit 35 may be provided as necessary, and may be omitted.
  • FIG. 4 is a flowchart showing an example of visibility information acquisition processing when the viewpoint moves away.
  • FIG. 5 is a diagram showing an example of an identifier displayed on the display unit 2' (virtual space image VR) when the viewpoint moves away.
  • step S10 of FIG. 5 The identifier In (first identifier) is displayed in the first area 21' on the image VR.
  • a fixation index such as "+” that easily fixes the viewpoint of the subject S at the position.
  • the upper part of FIG. 5 shows a state in which the identifier In using the fixation index of "+” is displayed in the first region 21' on the virtual space image VR by the process of step S10.
  • the identifier If is not displayed on the display 22 of the display unit 2 or the second area 22' on the virtual space image VR of the display unit 2'. Since the identifier In is displayed, the subject S starts to gaze at the identifier In, and a state is formed in which the subject S is focused on the near position Pn (first position).
  • step S20 the display control unit 32 displays the identifier If (second identifier) on the display 22 of the display unit 2 or the second area 22' on the virtual space image VR of the display unit 2', and notifies The unit 33 outputs an alert sound for prompting the subject S to move the viewpoint. It is preferable that the display of the identifier If in step S20 and the output of the alert sound be performed after the completion of the display of the identifier In in step S10, and after a period of about 2 to 5 seconds has elapsed. . By providing such a standby time, it is possible to reliably create a state in which the subject S is focused on the near position Pn.
  • a random index is preferably used as the identifier If displayed in step S20.
  • the random index can be, for example, a number randomly selected from a plurality of numbers, an image of a road sign, an icon, characters, or the like.
  • a number (random index) randomly selected from six numbers 0 to 5 is used as the identifier If.
  • the middle part of FIG. 5 shows a state in which an identifier If using a random index of "0" is displayed in the second area 22' on the virtual space image VR by the process of step S20.
  • the display of the identifier If at this stage is in a state in which the visibility of the identifier If is in a standard state, that is, in a blurry state after the blurring process is performed and is out of focus.
  • the subject S moves the viewpoint from the near position Pn to the far position Pf in response to the alert sound, and visually recognizes the identifier If using the random index displayed at the far position Pf. become.
  • the display control unit 32 controls the display state of the identifier If according to the transition conditions stored in the storage unit 31, and changes the visibility of the identifier If from the reference state to the target state (in-focus state).
  • transition to The lower part of FIG. 5 shows a state in which the identifier If, which has reached the target state after completion of visibility transition, is displayed in the second area 22' on the virtual space image VR.
  • step S40 the information acquisition unit 34 acquires from the subject S the visibility information of the identifier If during the transition from the reference state of the visibility of the identifier If to the target state. Acquisition of the visibility information of the identifier If by the information acquisition unit 34 is performed by inputting information indicating the evaluation result of the appearance of the identifier If by the subject S into the information acquisition unit 34 via the user input interface, or by checking the focal position of the subject S. is input to the information acquisition unit 34.
  • the evaluation of how the identifier If is seen by the subject S may be performed, for example, according to the following six-level evaluation criteria. 6: Very easy to read 5: Easy to read 4: Can be read without difficulty 3: Somewhat difficult to read but can be read 2: Hardly readable 1: Unable to read
  • the visibility of the identifier If transitions from the standard state to the target state. During this time, it evaluates to which of the six evaluation criteria the appearance of the identifier If corresponds, and inputs the evaluation result to the information acquisition unit 34 .
  • the evaluation result is input to the information acquisition unit 34 at any timing during the transition of the visibility of the identifier If, when the transition is completed, or between the completion of the transition and the end of the display of the identifier If. good too.
  • the information acquisition unit 34 can obtain more accurate visibility information. be able to obtain.
  • the transition conditions include the display time T during which the display of the second identifier is continued, the delay time L from the completion of the movement of the viewpoint of the subject S to the start of the transition of the visibility of the second identifier, the second identifier and a time constant ⁇ that determines the temporal change in the degree of increase when the visibility of the second identifier is increased.
  • the display time T for example, a time selected from four types of 1.0 seconds, 0.5 seconds, 0.35 seconds, and 0.25 seconds can be set as one of the transition conditions.
  • the delay time L the transition time ⁇ , and the time constant ⁇
  • conditions related to the subject S's age, sex, visual acuity, eye health, degree of eye opening, dominant eye, etc. and conditions related to the environment of the real space or virtual space, etc. It is possible to set it appropriately by taking into consideration.
  • FIG. 6 is a graph showing an example of temporal changes in the visibility of the second identifier (identifier If) whose display state is controlled according to the transition condition when the viewpoint moves away from the user.
  • the vertical axis of the graph in FIG. 6 represents the state of visibility V
  • the horizontal axis represents time t.
  • the state of the visibility V on the vertical axis increases as the distance from the intersection (origin) with the horizontal axis increases.
  • the solid line in the graph of FIG. 6 represents temporal changes in the visibility of the second identifier whose display state is controlled according to the transition condition.
  • the graph of FIG. 6 shows an example in which the value of the time constant ⁇ , which is one of the transition conditions, is changed to three values of 0.1, 0.2, and 0.3.
  • the transition time ⁇ is the time required to complete the transition to the target state V1 after the delay time L has elapsed.
  • a curve C over the transition time ⁇ represents a temporal change in the visibility of the second identifier when the visibility of the second identifier is raised to the target state V1. ), it is possible to approximate the temporal change of the focal length due to the focus adjustment function of the subject's S eyes.
  • t represents time [s] after the start of transition.
  • F represents the focal length [m] at time t.
  • Do represents a diopter that is the reciprocal of the focal length at the start of viewpoint movement.
  • Dt represents a diopter that is the reciprocal of the focal length at the end of the viewpoint movement.
  • e represents Napier's number (the base of natural logarithms).
  • represents a time constant.
  • the distance Dn from the subject S to the near position Pn is used as the focal length at the start of the viewpoint movement
  • the distance Dn from the subject S to the far position Pf is used as the focal length at the end of the viewpoint movement.
  • a distance Df to can be used.
  • Do in the above equation (1) means 1/Dn
  • Dt means 1/Df.
  • the focal length F in the above equation (1) corresponds to the state of visibility V at time t.
  • the time constant ⁇ is set according to the transition condition, and the length of the transition time ⁇ (the shape of the curve C) changes according to the time constant ⁇ .
  • the dashed line in the graph of FIG. 6 represents the temporal change in visibility corresponding to the blurring process applied to the virtual space image in the conventional technology as described above.
  • the blurring process applied to the virtual space image is executed at a speed corresponding to the performance of hardware responsible for image processing. Therefore, the transition from the reference state V0 of visibility to the target state V1 is completed in a short period of time substantially simultaneously with the movement of the viewpoint.
  • the transition conditions include, for example, acquisition of visibility information, real space as shown in FIG.
  • a condition may be set as to whether to perform in the virtual space as shown in FIG.
  • presence/absence of the blurring process and presence/absence of the delay time L may be set as one of the transition conditions.
  • step S50 the information acquisition unit 34 stores the acquired visibility information of the identifier If in the storage unit 31 in association with the corresponding transition condition. As a result, information (visibility information) about how the identifier If looks when the visibility state of the identifier If is changed according to the transition condition is accumulated in the storage unit 31 .
  • step S60 the condition changing unit 35 changes the transition condition stored in the storage unit 31 based on the visibility information of the identifier If acquired by the information acquiring unit 34.
  • This transition condition is changed, for example, when the visibility information of the identifier If acquired by the information acquisition unit 34 corresponds to evaluation criteria 2 described above, the display time T set as the transition condition , delay time L, etc. are changed to different values so that the visibility information acquired from the next time onwards is improved.
  • the process returns to step S10, and the above series of processes are repeatedly executed.
  • an example of changing the transition condition based on the acquired visibility information has been described. You may make it acquire visibility information while.
  • FIG. 7 is a flowchart illustrating an example of visibility information acquisition processing when the viewpoint moves in the direction of approaching.
  • FIG. 8 is a diagram showing an example of an identifier displayed on the display unit 2' (virtual space image VR) when the viewpoint moves in the approaching direction.
  • step S110 of FIG. 8 An identifier If (first identifier) using a fixation index of "+" is displayed in the second region 22' on the image VR.
  • the upper part of FIG. 8 shows a state in which the identifier If is displayed in the second area 22' on the virtual space image VR by the process of step S110.
  • the identifier In is not displayed on the tablet terminal 21 of the display unit 2 or the first area 21' on the virtual space image VR of the display unit 2'. Since the identifier If is displayed, the subject S starts to gaze at the identifier If, and a state is formed in which the subject S is focused on the far position Pf (first position).
  • step S120 the display control unit 32 assigns an identifier In (second identifier) using a random index to the tablet terminal 21 of the display unit 2 or the first region 21' on the virtual space image VR of the display unit 2'. is displayed, and the notification unit 33 outputs an alert sound for prompting the subject S to move the viewpoint.
  • the display of the identifier In and the output of the alert sound in step S120 are performed in the same manner as in the case of moving the viewpoint in the direction of moving away from the identifier In in step S110, after the completion of the display of the identifier In in step S110. It is better to wait and let it happen.
  • the middle part of FIG. 8 shows a state in which an identifier In using a random index of "0" is displayed in the first area 21' on the virtual space image VR by the process of step S120.
  • the display of the identifier In at this stage is in a state where the visibility of the identifier In is in a standard state, that is, in an out-of-focus and blurred state after the blurring process has been performed.
  • the subject S moves the viewpoint from the far position Pf to the near position Pn in response to the alert sound, and visually recognizes the identifier In using the random index displayed at the near position Pn. become.
  • the display control unit 32 controls the display state of the identifier In according to the transition conditions stored in the storage unit 31, and changes the visibility of the identifier In from the reference state to the target state (in-focus state).
  • transition to The lower part of FIG. 8 shows a state in which the identifier In, which has reached the target state after the visibility transition is completed, is displayed in the first area 21' on the virtual space image VR.
  • step S140 the information acquisition unit 34 acquires from the subject S the visibility information of the identifier In during the transition from the reference state of the visibility of the identifier In to the target state.
  • the acquisition processing of the visibility information of the identifier In by the information acquisition unit 34 is performed in the same manner as the processing of acquiring the visibility information of the identifier If in the movement of the viewpoint in the moving away direction described above.
  • Do in the above equation (1) means 1/Df
  • Dt means 1/Dn.
  • step S150 the information acquisition unit 34 stores the acquired visibility information of the identifier In in the storage unit 31 in association with the corresponding transition condition. As a result, information (visibility information) about how the identifier In appears when the visibility state of the identifier In is changed according to the transition condition is accumulated in the storage unit 31 .
  • step S160 the condition changing unit 35 changes the transition condition stored in the storage unit 31 based on the visibility information of the identifier In acquired by the information acquiring unit 34.
  • the process returns to step S110, and the above series of processes are repeatedly executed.
  • the series of processes for moving the viewpoint in the moving away direction (steps S10 to S60 in FIG. 4) and the series of processes for moving the viewpoint in the approaching direction (steps S110 to S160 in FIG. 7) are alternately and repeatedly executed. It is also possible to Also, a plurality of sets with different transition conditions may be repeatedly executed in a predetermined order or randomly. For example, if two sets of different transition conditions are alternately executed, the visibility information when the viewpoint moves from one set to the other set and the visibility information when the viewpoint moves from the other set to the other set are obtained. It is possible to acquire the visibility information in the case where the transition is made, and it becomes easy to evaluate the desired transition condition.
  • the visibility information acquired by the visibility information acquisition device 1 of the present embodiment as described above and the information related to the transition conditions associated therewith can be used, for example, for visibility evaluation of various objects in vehicle development such as automobiles, vehicle operation, and so on.
  • a driving simulator system used for simulating experiences, etc. it can be used for display control of virtual space images that are performed when the user's viewpoint moves.
  • FIG. 9 shows an example in which transition conditions suitable for a driving simulator system are determined based on the visibility information acquired by the visibility information acquisition device 1 of the present embodiment, and display control of a virtual space image is performed according to the transition conditions. is shown.
  • the virtual space image shown in FIG. 9 is an image displayed on the HMD or the like worn by the user, and expresses the scene in the virtual space that the user can see from the driver's seat of the vehicle.
  • the virtual space image includes, as objects representing the vehicle, the upper part of the steering wheel, the upper part of the dashboard, the right front pillar, the front edge of the roof, the rearview mirror, the right side mirror, and the like.
  • the number "8" displayed at the bottom center of the virtual space image is an object for evaluating visibility near the upper end of the steering wheel.
  • the virtual space image also includes roads, sidewalks, buildings, road signs (stop), etc. as objects representing stationary objects outside the vehicle.
  • the user's viewpoint ( ⁇ mark) is at a near position Pn on the number "8" displayed near the upper end of the steering wheel.
  • Objects located inside the enclosed viewpoint peripheral area An are in focus, and objects located outside the viewpoint peripheral area An are out of focus and blurred.
  • the white arrow in the figure indicates the direction in which the user's viewpoint moves. move to Note that the ⁇ mark indicating the user's viewpoint is not displayed in the actual virtual space image.
  • the display state of the object in the viewpoint surrounding area Af of the movement destination is determined according to the transition condition determined based on the visibility information acquired by the visibility information acquisition device 1. is controlled, and the visibility of the object changes from a blurred state (reference state) to a focused state (target state).
  • the virtual space image shown in the lower part of FIG. 9 shows a state in which visibility transition has been completed.
  • the visibility of the object in the viewpoint peripheral region An of the movement source changes from an in-focus state to a blurred state, contrary to the transition of the visibility of the object in the viewpoint peripheral region Af of the movement destination.
  • the display state of the object is controlled so as to transition to the state.
  • the transition condition is determined based on the visibility information acquired by the visibility information acquisition device 1 of the present embodiment as described above, and the display control of the virtual space image in the driving simulator system is performed according to the transition condition, , vehicle development, etc., it becomes possible to accurately evaluate the visibility in the real space of an object displayed on a virtual space image. Also, if a vehicle driving simulation experience is performed using a driving simulator system, a more realistic driving experience can be provided to the user.
  • the display control unit 32 displays the first identifier at the first position in front of the subject S
  • a second identifier is displayed at a second position spaced apart in the direction, and the viewpoint of the subject S is moved from the first position to the second position.
  • the display control unit 32 controls the display state of the second identifier according to the transition condition to transition the visibility of the second identifier from the reference state to the target state, and the visibility information of the second identifier during the transition is
  • the information is obtained from the subject S by the information obtaining unit 34 .
  • a series of processes from displaying the first identifier to acquiring visibility information is set as one set, and multiple sets are repeatedly executed under mutually different transition conditions. This makes it possible to easily acquire visibility information corresponding to various transition conditions.
  • the display time T of the second identifier is set within 1 second.
  • the time required to focus on the movement destination is approximately one second or less.
  • the transition condition is changed based on the acquired visibility information. This makes it possible to efficiently set various transition conditions, making it easier to acquire a wide range of visibility information.
  • the visibility information acquisition device 1 of the present embodiment if the first and second identifiers are displayed on the first and second display devices (tablet terminal 21, display 22), virtual space such as HMD It becomes unnecessary to prepare a display device, and visibility information can be obtained at low cost. Further, if a notification (output of an alert sound) prompting the subject to move the viewpoint is performed, the viewpoint of the subject S can be reliably moved, and more accurate visibility information can be obtained. becomes possible.
  • the present invention is not limited to the above-described embodiments, and various modifications and changes are possible based on the technical idea of the present invention.
  • an example has been described in which the visibility of the second identifier is maintained in the reference state during the period from the completion of the movement of the viewpoint of the subject S until the delay time L elapses.
  • the display state of the second identifier may be controlled so that the visibility is slightly increased during L.
  • the transition from the reference state of the visibility of the second identifier to the target state is performed according to the function of formula (1).
  • the state transition of the visibility of the second identifier may be performed according to a map or the like that associates the focal length.
  • the diopters Do and Dt in the formula (1) are the reciprocals of the distances Dn and Df in the above-described embodiment. is shown, the reciprocal of the distance (focal length) from the subject S to the identifier In displayed at the near position Pn, and the distance (focal length) from the subject S to the identifier If displayed at the far position Pf may be used as the diopters Do and Dt.
  • the degree of change in the visibility of the second identifier can be changed according to the deviation between the focal length at the start of the viewpoint movement and the focal length at the end of the viewpoint movement.
  • the functions (blocks) of the storage unit 31, the display control unit 32, the notification unit 33, the information acquisition unit 34, and the condition change unit 35 are included in one information processing unit 3 (computer system).
  • the target (control device) that implements each of the above functions can be a single target (control device) or a plurality of targets (control devices).
  • each of the functions described above may be implemented by distributing them to a plurality of information processing apparatuses.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

視認性情報取得装置(1)では、表示制御部(32)が、被験者(S)の前方の第1位置に第1識別子を表示させた後、第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示させて、被験者(S)の視点を第1位置から第2位置に移動させる。そして、表示制御部(32)が、遷移条件に従って第2識別子の表示状態を制御して、第2識別子の視認性を基準状態から該基準状態とは異なる目標状態に遷移させ、遷移中における第2識別子の視認性情報が情報取得部(34)により被験者Sから取得される。これにより、視点が移動する際に、現実空間の見え方に近い視認性を実現した仮想空間画像を生成可能にするために必要な情報を高い精度で取得できる。

Description

視認性情報取得装置の制御方法および視認性情報取得装置
 本発明は、視認性情報取得装置の制御方法および視認性情報取得装置に関する。
 例えば、特許文献1には、ユーザが視認する仮想空間画像をヘッドマウントディスプレイ(HMD:Head Mounted Display)に提供する仮想空間画像提供方法が開示されている。この仮想空間画像提供方法では、HMDの回転方向および回転速度が取得され、回転方向に対応する画面上の方向における仮想空間画像の両側の端部領域に、回転速度に応じた範囲および強さでぼかし処理が施されることにより、VR(Virtual Reality)酔いが低減されている。
特開2017-138701号公報
 ところで、車両開発等においては、仮想空間画像上に評価対象となるオブジェクトを表示して、現実空間における該オブジェクトの視認性を評価する場合がある。この場合、仮想空間画像上に表示されるオブジェクトの見え方が、現実空間の見え方に近づくようにする必要がある。例えば、現実空間において、ユーザの視点が変化した直後や視野内の物体の配置または距離が変化した直後には、視点や物体の周辺領域がぼやけて見える。このような視点等の移動に伴う周辺領域のぼやけ方は、眼の焦点調整特性やユーザの状態、車両周辺の状態などに応じて、時間の経過とともに変化する。このため、仮想空間画像上にオブジェクトを表示して視認性を評価する際にも、上記のような現実空間でのぼやけ方の時間的な変化が再現されるようにするのが望ましい。
 しかしながら、前述したような従来の技術では、HMDの回転速度に応じて仮想空間画像に施されるぼかし処理の範囲および強さが設定されているだけで、該設定された範囲に対して施されるぼかし処理の状態の時間的な変化までは考慮されていない。通常、画像データのぼかし処理は、画像処理を担うハードウェアの性能に応じた速度で実行され、眼の焦点調整速度よりも高速に、所望の強さでぼやけた状態の画像データが生成される。このため、従来の技術では、HMDの回転、つまりユーザの頭部の向きが変化して仮想空間画像上の視点が移動したときに、HMDに表示される仮想空間画像のぼやけ方の時間的な変化が現実空間の見え方とは異なってしまう。仮想空間画像に表示されるオブジェクトの視認性を現実空間の見え方に近づけるためには、現実空間でのぼやけ方の時間的な変化を正確に把握し得るような情報を取得して、該取得した情報を仮想空間画像のぼかし処理に反映させることが重要である。
 本発明は上記の点に着目してなされたもので、視点が移動する際に、現実空間の見え方に近い視認性を実現した仮想空間画像を生成可能にするために必要な情報を高い精度で取得することができる視認性情報取得装置の制御方法および視認性情報取得装置を提供することを目的とする。
 上記の目的を達成するため本発明の一態様は、被験者の前方の第1位置に第1識別子を表示するとともに、前記第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させたときの前記第2識別子の視認性情報を取得する視認性情報取得装置の制御方法を提供する。この制御方法は、前記被験者の焦点が前記第1位置に合わされた状態となるように、前記第1位置に前記第1識別子を表示する第1表示ステップと、前記第2位置に前記第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させる第2表示ステップと、予め設定した遷移条件に従って前記第2識別子の表示状態を制御して、前記第2識別子の視認性を基準状態から該基準状態とは異なる目標状態に遷移させる制御ステップと、前記第2識別子の視認性の基準状態から目標状態への遷移中における前記第2識別子の視認性情報を前記被験者から取得する取得ステップと、を含む。
 本発明に係る視認性情報取得装置の制御方法によれば、被験者の視点が移動した際に、現実空間の見え方に近い視認性を実現した仮想空間画像を生成可能にするために必要な情報を高い精度で取得することができる。
本発明の一実施形態に係る視認性情報取得装置の構成を示す概念図である。 上記実施形態において現実空間に実現された表示部の一例を示す概念図である。 上記実施形態において仮想空間に実現された表示部の一例を示す概念図である。 上記実施形態において視点が遠ざかる方向に移動する場合の視認性情報の取得処理の一例を示すフローチャートである。 上記実施形態において視点が遠ざかる方向の移動する場合に仮想空間画像に表示される識別子の一例を示す図である。 上記実施形態において遷移条件に従って表示状態が制御される第2識別子の視認性の時間的な変化の一例を示すグラフである。 上記実施形態において視点が近づく方向に移動する場合の視認性情報の取得処理の一例を示すフローチャートである。 上記実施形態において視点が近づく方向に移動する場合に仮想空間画像に表示される識別子の一例を示す図である。 上記実施形態の視認性情報取得装置で取得された視認性情報を基に運転シミュレータシステムに好適な遷移条件を決定し、該遷移条件に従って仮想空間画像の表示制御を実施した一例を示す図である。
 以下、本発明の実施の形態について添付図面を参照しながら詳細に説明する。
 図1は、本発明の一実施形態に係る視認性情報取得装置の構成を示す概念図である。
 図1において、本実施形態の視認性情報取得装置1は、例えば、表示部2と、情報処理部3とを備える。表示部2は、所定位置に着座した被験者Sの前方の第1位置に第1識別子を表示可能であり、かつ、第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示可能である。第1位置および第2位置のそれぞれは、現実空間内の位置だけでなく、仮想空間内の位置を含む。本実施形態による表示部11は、例えば、現実空間に2つの表示装置を配置して実現してもよく、或いは、ヘッドマウントディスプレイ(HMD)等を利用して仮想空間に2つの表示領域を設定して実現してもよい。
 図2は、現実空間に実現された表示部2の一例を示す概念図である。
 図2において、表示部2は、被験者Sの前方の近い位置(以下、「近位置」とする)Pnに配置されたタブレット端末21と、被験者Sの前方の遠い位置(以下、「遠位置」とする)Pfに配置されたディスプレイ22とを有している。タブレット端末21およびディスプレイ22は、被験者Sの概ね正面にそれぞれ配置されている。タブレット端末21は、被験者Sの前方斜め下側で画面を被験者S側に向けて設置されている。タブレット端末21の画面には、略中央に位置する領域に識別子Inが表示される。ディスプレイ22は、被験者Sの視野内でタブレット端末21とは重ならない高さに設置されている。ディスプレイ22の画面には、略中央に位置する領域に識別子Ifが表示される。本実施形態では、被験者Sからタブレット端末21までの距離Dn(図1)が、例えば0.2mに設定されており、被験者Sからディスプレイ22までの距離Df(図1)が、例えば5mに設定されている。ただし、タブレット端末21およびディスプレイ22の配置は上記の一例に限定されない。
 上記表示部2において、近位置Pnに配置されたタブレット端末21から遠位置Pfに配置されたディスプレイ22に被験者Sの視点を移動させる場合(以下、「遠ざかる方向の視点移動」とする)、近位置Pn、識別子Inおよびタブレット端末21が、本発明の第1位置、第1識別子および第1表示装置に相当するとともに、遠位置Pf、識別子Ifおよびディスプレイ22が、本発明の第2位置、第2識別子および第2表示装置に相当する。一方、遠位置Pfに配置されたディスプレイ22から近位置Pnに配置されたタブレット端末21に被験者Sの視点を移動させる場合(以下、「近づく方向の視点移動」とする)、遠位置Pf、識別子Ifおよびディスプレイ22が、本発明の第1位置、第1識別子および第1表示装置に相当するとともに、近位置Pn、識別子Inおよびタブレット端末21が、本発明の第2位置、第2識別子および第2表示装置に相当する。
 図3は、仮想空間に実現された表示部2’の一例を示す概念図である。
 図3において、表示部2’は、被験者Sの頭部に装着されたHMDに表示される仮想空間画像VR上で実現されている。仮想空間画像VRには、左右方向の中央部下側に第1領域21’が形成されているとともに、左右方向の中央部上側に第2領域22’が形成されている。第1領域21’および第2領域22’は、仮想空間において、奥行方向(被験者Sから見た前後方向)に間隔を空けた配置となるように設定されている。第1領域21’は、図2に示した現実空間におけるタブレット端末21の画面を仮想的に実現したものである。また、第2領域22’は、図2に示した現実空間におけるディスプレイ22の画面を仮想的に実現したものである。したがって、HMDに表示される仮想空間画像VRには、第1領域21’の奥行情報として、近位置Pn(被験者Sからの距離Dn)に対応する情報が設定されているとともに、第2領域22’の奥行情報として、遠位置Pf(被験者Sからの距離Df)に対応する情報が設定されている。第1領域21’の略中央には識別子Inが表示され、第2領域22’の略中央には識別子Ifが表示される。
 図1に戻って、情報処理部3は、その機能ブロックとして、例えば、記憶部31と、表示制御部32と、報知部33と、情報取得部34と、条件変更部35とを備える。情報処理部3のハードウェア構成は、ここでは図示を省略するが、例えば、プロセッサ、メモリ、ユーザ入力インターフェースおよび通信インターフェースを含むコンピュータシステムを用いて構成されている。つまり、情報処理部3は、コンピュータシステムのプロセッサがメモリに格納されたプログラムを読み出して実行することによって、上記各ブロックの機能が実現される。
 記憶部31は、被験者Sの視点が移動した際に、移動先の視点周辺領域に表示させる第2識別子(識別子InまたはIf)の視認性を基準状態から該基準状態とは異なる目標状態に遷移させる遷移条件を記憶している。視認性の基準状態は、所望の視認レベルを設定することができ、該視認レベルの高低を調整可能としてもよい。本実施形態では、視認性の目標状態が基準状態よりも高くなるように設定されている一例を説明する。ただし、視認性の基準状態および目標状態の設定は上記の一例に限定されるものではなく、基準状態よりも低い目標状態を設定することも可能である。上記遷移条件には、例えば、第2識別子の表示を継続する表示時間T、被験者Sの視点移動が完了してから第2識別子の視認性の状態遷移を開始するまでの遅延時間L、第2識別子の視認性の基準状態から目標状態への遷移に要する遷移時間α、および第2識別子の視認性を上昇させる際の上昇度合の時間的な変化を決める時間定数τなどが含まれている。また、記憶部31は、表示部2に表示させる識別子In,Ifの画像データを記憶している。さらに、記憶部31には、情報取得部34で取得される第2識別子の視認性情報なども記憶され蓄積される。なお、遷移条件は、予め記憶部31に記憶されていてもよく、或いは、図示しない外部装置から受信した遷移条件を一時的に記憶部31に記憶して表示制御部32出力してもよい。遷移条件、識別子In,Ifの画像データ、および第2識別子の視認性情報の詳細については後述する。
 表示制御部32は、表示部2に第1識別子を表示させた後に第2識別子を表示させるとともに、記憶部31に記憶されている遷移条件に従って、第2識別子の表示状態を制御する。具体的に、遠ざかる方向の視点移動に対応した視認性情報が取得される場合、表示制御部32は、表示部2のタブレット端末21(または表示部2’の第1領域21’)に識別子Inを表示させた後に、表示部2のディスプレイ22(または表示部2’の第2領域22’)に識別子Ifを表示させ、該識別子Ifの表示状態を遷移条件に従って制御する。一方、近づく方向の視点移動に対応した視認性情報が取得される場合、表示制御部32は、表示部2のディスプレイ22(または表示部2’の第2領域22’)に識別子Ifを表示させた後に、表示部2のタブレット端末21(または表示部2’の第1領域21’)に識別子Inを表示させ、該識別子Inの表示状態を遷移条件に従って制御する。
 第2識別子の視認性の状態は、例えば、第2識別子として表示する画像にぼかし処理を施すことで制御される。ぼかし処理は、画像データの情報量を変化させて当該画像がぼやけて見える状態にする処理である。言い換えると、ぼかし処理は、被験者Sが視覚を通して確認できる情報量を減らす画像処理である。具体的なぼかし処理の例としては、第2識別子として表示する画像について、情報量を減らす処理、解像度を下げる処理、または表示面積を段階的に小さくする処理、表示面積を段階的に大きくする処理、或いはこれら処理の組み合わせなどがある。処理の組み合わせの例として、表示面積を段階的に大きくする処理と表示面積を段階的に小さくする処理とを順番に、またはこれらを交互に行うことでピントが合っていない状態を再現し易くなる。したがって、第2識別子の視認性の基準状態は、例えばぼかし処理を施した後のピントが合っていないぼやけた状態であり、当該画像についてユーザUが視覚を通して確認できる情報量が少ない状態を表している。また、第2識別子の視認性の目標状態は、例えばぼかし処理を施す前のピントが合った状態であり、当該画像についてユーザUが視覚を通して確認できる情報量が多い状態を表している。
 報知部33は、例えば、被験者Sに対して第1位置から第2位置への視点の移動を促すためのアラート音を、表示部2,2’または情報処理部3に設けられている図示しないスピーカ等を介して出力する。報知部33は、表示制御部32と連動してアラート音を生成する。具体的には、表示制御部32により表示部2に第1識別子が表示されてから所定の時間(例えば、2~5秒)が経過した後に、報知部33からアラート音が出力される。報知部33からアラート音が出力されるタイミングは、表示制御部32により表示部2,2’に第2識別子が表示されるタイミングと略一致している。なお、報知部33による被験者Sへの報知手段は、アラート音に限定されない。例えば、表示部2,2’に表示する画像上に、視点の移動を促す文字等を表示したり、実験管理者のかけ声で被験者Sの視点の移動を促す報知を行ったりしてもよい。また、事前に被験者Sに報知内容の意味を伝えておけば、第1位置から第2位置への移動を促す旨の情報を含んでいない報知が行われても構わない。
 情報取得部34は、第2識別子の視認性の基準状態から目標状態への遷移中における第2識別子の視認性情報を被験者Sから取得する。第2識別子の視認性情報は、例えば、視認性が基準状態から目標状態に遷移する第2識別子の見え方を被験者Sが評価した結果を示す情報や、第2識別子の視認性の遷移中における被験者Sの焦点位置を図示しないセンサ等で検出した結果を示す情報などである。つまり、被験者Sによる第2識別子の見え方の評価結果を示す情報が、情報処理部3に接続されている図示しないユーザ入力インターフェースを介して情報取得部34に入力されるか、或いは、被験者Sの焦点位置を検出するセンサ等の出力信号が情報取得部34に入力され、該情報取得部34への入力情報が第2識別子の視認性情報として取得される。情報取得部34で取得された視認性情報は、対応する遷移条件と関連付けて記憶部31に記憶される。
 条件変更部35は、情報取得部34で取得された第2識別子の視認性情報に基づいて、記憶部31に記憶されている遷移条件を変更する。条件変更部35により変更された遷移条件は、次回以降に視認性情報を取得する際に使用される。なお、条件変更部35は、必要に応じて設ければよく、省略することも可能である。
 次に、本実施形態による視認性情報取得装置1の動作について説明する。ここでは、被験者Sの視点移動の方向(遠ざかる方向、近づく方向)ごとに具体例を挙げながら視認性情報の取得処理を詳しく説明する。
 図4は、視点が遠ざかる方向に移動する場合の視認性情報の取得処理の一例を示すフローチャートである。また、図5は、視点が遠ざかる方向に移動する場合に表示部2’(仮想空間画像VR)に表示される識別子の一例を示す図である。
 遠ざかる方向の視点移動の場合、本実施形態の視認性情報取得装置1では、まず図4のステップS10において、表示制御部32が、表示部2のタブレット端末21、または表示部2’の仮想空間画像VR上の第1領域21’に、識別子In(第1識別子)を表示させる。このとき表示される識別子Inとしては、例えば、被験者Sの視点を当該位置に固定しやすい「+」などの固視指標を用いるのが好ましい。図5の上段は、ステップS10の処理により、仮想空間画像VR上の第1領域21’に「+」の固視指標を用いた識別子Inが表示された状態を示している。なお、ステップS10の段階において、表示部2のディスプレイ22、または表示部2’の仮想空間画像VR上の第2領域22’に識別子Ifは表示されていない。被験者Sは、識別子Inが表示されたことにより該識別子Inを注視するようになり、被験者Sの焦点が近位置Pn(第1位置)に合わされた状態が形成される。
 続くステップS20では、表示制御部32が、表示部2のディスプレイ22、または表示部2’の仮想空間画像VR上の第2領域22’に、識別子If(第2識別子)を表示させるとともに、報知部33が、被験者Sの視点移動を促すためのアラート音を出力する。ステップS20における識別子Ifの表示、およびアラート音の出力は、上記ステップS10における識別子Inの表示が完了した後、2~5秒程度の時間が経過するのを待って行われるようにするのがよい。このような待機時間を設けることで、被験者Sの焦点が近位置Pnに合わされた状態を確実に形成することができる。
 ステップS20において表示される識別子Ifとしては、ランダム指標を用いるのが好ましい。ランダム指標は、例えば、複数の数字の中からランダムに選ばれた数字や、道路標識の画像、アイコン、文字などとすることが可能である。本実施形態では、0~5の6個の数字の中からランダムに選ばれた数字(ランダム指標)が識別子Ifとして使用される。図5の中段は、ステップS20の処理により、仮想空間画像VR上の第2領域22’に「0」のランダム指標を用いた識別子Ifが表示された状態を示している。ただし、この段階での識別子Ifの表示は、識別子Ifの視認性が基準状態、すなわち、ぼかし処理を施した後のピントが合っていないぼやけた状態である。このようなステップS20の処理により、被験者Sは、アラート音に反応して視点を近位置Pnから遠位置Pfに移動し、遠位置Pfに表示されているランダム指標を用いた識別子Ifを視認するようになる。
 次のステップS30では、表示制御部32が、記憶部31に記憶されている遷移条件に従って識別子Ifの表示状態を制御し、識別子Ifの視認性を基準状態から目標状態(ピントが合った状態)に遷移させる。図5の下段は、視認性の遷移が完了して目標状態となった識別子Ifが仮想空間画像VR上の第2領域22’に表示されている状態を示している。
 ステップS40では、情報取得部34が、識別子Ifの視認性の基準状態から目標状態への遷移中における識別子Ifの視認性情報を被験者Sから取得する。情報取得部34による識別子Ifの視認性情報の取得は、被験者Sによる識別子Ifの見え方の評価結果を示す情報がユーザ入力インターフェースを介して情報取得部34に入力されたり、被験者Sの焦点位置を検出するセンサ等の出力信号が情報取得部34に入力されたりすることによって行われる。
 具体的に、被験者Sによる識別子Ifの見え方の評価は、例えば、次のような6段階の評価基準に沿って行われるようにしてもよい。
  6:非常に読みやすい
  5:読みやすい
  4:苦労せずに読める
  3:多少読みにくいが読める
  2:やっと読める
  1:読めない
 被験者Sは、識別子Ifの視認性が基準状態から目標状態に遷移する間、該識別子Ifの見え方が上記6段階の評価基準のうちのいずれに該当するかを評価し、その評価結果を情報取得部34に入力する。情報取得部34への評価結果の入力は、識別子Ifの視認性の遷移中、遷移が完了した時、遷移が完了してから識別子Ifの表示が終了するまでの間のいずれのタイミングであってもよい。ただし、遷移が開始されてから少なくとも完了するまでの間における識別子Ifの視認性を評価した結果が情報取得部34に入力されるようにすれば、より正確な視認性情報が情報取得部34で取得できるようになる。
 ここで、遷移条件について具体的に説明する。前述したように遷移条件は、第2識別子の表示を継続する表示時間T、被験者Sの視点移動が完了してから第2識別子の視認性の遷移を開始するまでの遅延時間L、第2識別子の視認性の基準状態から目標状態への遷移に要する遷移時間α、および第2識別子の視認性を上昇させる際の上昇度合の時間的な変化を決める時間定数τなどを含んでいる。表示時間Tは、例えば、1.0秒、0.5秒、0.35秒、0.25秒の4種類から選択した時間を遷移条件の1つとして設定することが可能である。遅延時間L、遷移時間α、および時間定数τについては、被験者Sの年齢、性別、視力、眼の健康度、開眼度、利き目などに関する条件や、現実空間または仮想空間の環境に関する条件等を考慮して適宜に設定することが可能である。
 図6は、遠ざかる方向の視点移動において、遷移条件に従って表示状態が制御される第2識別子(識別子If)の視認性の時間的な変化の一例を示すグラフである。図6のグラフの縦軸は視認性Vの状態を表し、横軸は時間tを表す。縦軸の視認性Vの状態は、横軸との交点(原点)から離れるほど高くなる。視認性V=V0の状態が基準状態に対応し、V=V1の状態が目標状態に対応している。時間t=0は、被験者Sの視点移動が完了したタイミングを示している。
 図6のグラフ中の実線は、遷移条件に従って表示状態が制御される第2識別子の視認性の時間的な変化を表している。ここでは、遷移条件の1つである時間定数τの値を0.1,0.2,0.3の3通りで変えた場合の一例が図6のグラフに示されている。第2識別子視認性の時間的な変化は、被験者Sの視点移動が完了してから所定の遅延時間Lが経過するまでの期間(ここでは、遅延時間L=0.2秒)、視認性が基準状態V0に維持され、その後に視認性が上昇し始める。時間t=0.2秒以降、第2識別子の視認性は、時間の経過に従って漸次変化して目標状態V1まで上昇する。遅延時間Lの経過後、目標状態V1への遷移が完了するまでに要する時間が遷移時間αである。
 遷移時間αに亘る曲線Cは、第2識別子の視認性を目標状態V1に上昇させる際の当該視認性の時間的な変化を表しており、この曲線Cの形状が、例えば、次の(1)式に示す関数に従うようにすることによって、被験者Sの眼の焦点調整機能による焦点距離の時間的な変化に近づけることができる。
Figure JPOXMLDOC01-appb-M000001

上記(1)式において、tは、遷移を開始してからの時間[s]を表している。Fは、時間tでの焦点距離[m]を表している。Doは、視点移動開始時の焦点距離の逆数であるディオプター(diopter)を表している。Dtは、視点移動終了時の焦点距離の逆数であるディオプターを表している。eは、ネイピア数(自然対数の底)を表している。τは、時間定数を表している。図5のように視点が遠ざかる方向に移動する場合、視点移動開始時の焦点距離として被験者Sから近位置Pnまでの距離Dnを用いるとともに、視点移動終了時の焦点距離として被験者Sから遠位置Pfまでの距離Dfを用いることができる。この場合、上記(1)式におけるDoは1/Dnを意味し、Dtは1/Dfを意味する。
 上記(1)式における焦点距離Fは、時間tでの視認性Vの状態に対応する。時間定数τは、遷移条件に合わせて設定され、時間定数τに応じて遷移時間αの長さ(曲線Cの形状)が変化する。図6の例では、時間定数τの値をτ=0.1としたときの遷移時間αよりもτ=0.2としたときの遷移時間α’の方が長くなり、該遷移時間α’よりもτ=0.3としたときの遷移時間α’’の方が更に長くなっている。このように、遷移条件の設定に応じて第2識別子の視認性の時間的な変化の仕方が変わるので、遷移条件の設定ごとに第2識別子の視認性情報を取得して比較することで、被験者Sが第2識別子を読み取りやすい遷移条件を判断することができるようになる。
 なお、図6のグラフ中の破線は、上述したような従来の技術において仮想空間画像に施されるぼかし処理に対応した視認性の時間的な変化を表している。従来の技術では、仮想空間画像に施されるぼかし処理が、画像処理を担うハードウェアの性能に応じた速度で実行される。このため、視認性の基準状態V0から目標状態V1への遷移が、視点の移動と略同時の短期間で完了している。
 また、遷移条件には、上記のような表示時間T、遅延時間L、遷移時間α、および時間定数τの他にも、例えば、視認性情報の取得を、図2に示したような現実空間で行うか、或いは、図3に示したような仮想空間で行うかの条件が設定されていてもよい。さらに、視認性情報の取得を仮想空間で行う場合には、ぼかし処理の有無や遅延時間Lの有無が遷移条件の1つとして設定されていてもよい。このように想定される被験者Sや環境などの条件を考慮して多様な遷移条件を設定することで、精度の高い視認性情報を取得できるようになる。
 図4に戻って、ステップS50では、情報取得部34が、取得した識別子Ifの視認性情報を、それに対応する遷移条件と関連付けて、記憶部31に記憶する。これにより、遷移条件に従って識別子Ifの視認性の状態を遷移させたときの該識別子Ifの見え方に関する情報(視認性情報)が記憶部31に蓄積されるようになる。
 ステップS60では、条件変更部35が、情報取得部34で取得された識別子Ifの視認性情報に基づいて、記憶部31に記憶されている遷移条件を変更する。この遷移条件の変更は、例えば、情報取得部34で取得された識別子Ifの視認性情報が前述した評価基準の2に該当しているような場合に、遷移条件として設定されていた表示時間Tや遅延時間Lなどを異なる値に変更して、次回以降に取得される視認性情報が改善されるようにする。条件変更部35による遷移条件の変更処理が完了すると、ステップS10に戻って、上記一連の処理が繰り返し実行される。なお、ここでは、取得された視認性情報に基づいて遷移条件を変更する一例を説明したが、互いに異なる複数の遷移条件を記憶部31に予め記憶させておき、複数の遷移条件を順番に切り替えながら視認性情報を取得するようにしてもよい。
 次に、近づく方向の視点移動における視認性情報取得装置1の動作を説明する。
 図7は、視点が近づく方向に移動する場合の視認性情報の取得処理の一例を示すフローチャートである。また、図8は、視点が近づく方向に移動する場合に表示部2’(仮想空間画像VR)に表示される識別子の一例を示す図である。
 近づく方向の視点移動の場合、本実施形態の視認性情報取得装置1では、まず図7のステップS110において、表示制御部32が、表示部2のディスプレイ端末22、または表示部2’の仮想空間画像VR上の第2領域22’に、「+」の固視指標を用いた識別子If(第1識別子)を表示させる。図8の上段は、ステップS110の処理により、仮想空間画像VR上の第2領域22’に識別子Ifが表示された状態を示している。なお、ステップS110の段階において、表示部2のタブレット端末21、または表示部2’の仮想空間画像VR上の第1領域21’に識別子Inは表示されていない。被験者Sは、識別子Ifが表示されたことにより該識別子Ifを注視するようになり、被験者Sの焦点が遠位置Pf(第1位置)に合わされた状態が形成される。
 続くステップS120では、表示制御部32が、表示部2のタブレット端末21、または表示部2’の仮想空間画像VR上の第1領域21’に、ランダム指標を用いた識別子In(第2識別子)を表示させるとともに、報知部33が、被験者Sの視点移動を促すためのアラート音を出力する。ステップS120における識別子Inの表示、およびアラート音の出力は、前述した遠ざかる方向の視点移動の場合と同様に、上記ステップS110における識別子Inの表示が完了した後、2~5秒程度の時間が経過するのを待って行われるようにするのがよい。
 図8の中段は、ステップS120の処理により、仮想空間画像VR上の第1領域21’に「0」のランダム指標を用いた識別子Inが表示された状態を示している。ただし、この段階での識別子Inの表示は、識別子Inの視認性が基準状態、すなわち、ぼかし処理を施した後のピントが合っていないぼやけた状態である。このようなステップS120の処理により、被験者Sは、アラート音に反応して視点を遠位置Pfから近位置Pnに移動し、近位置Pnに表示されているランダム指標を用いた識別子Inを視認するようになる。
 次のステップS130では、表示制御部32が、記憶部31に記憶されている遷移条件に従って識別子Inの表示状態を制御し、識別子Inの視認性を基準状態から目標状態(ピントが合った状態)に遷移させる。図8の下段は、視認性の遷移が完了して目標状態となった識別子Inが仮想空間画像VR上の第1領域21’に表示されている状態を示している。
 ステップS140では、情報取得部34が、識別子Inの視認性の基準状態から目標状態への遷移中における識別子Inの視認性情報を被験者Sから取得する。情報取得部34による識別子Inの視認性情報の取得処理は、前述した遠ざかる方向の視点移動における識別子Ifの視認性情報の取得処理と同様にして行われる。近づく方向の視点移動の場合、前述した(1)式におけるDoは1/Dfを意味し、Dtは1/Dnを意味する。
 ステップS150では、情報取得部34が、取得した識別子Inの視認性情報を、それに対応する遷移条件と関連付けて、記憶部31に記憶する。これにより、遷移条件に従って識別子Inの視認性の状態を遷移させたときの該識別子Inの見え方に関する情報(視認性情報)が記憶部31に蓄積されるようになる。
 ステップS160では、条件変更部35が、情報取得部34で取得された識別子Inの視認性情報に基づいて、記憶部31に記憶されている遷移条件を変更する。条件変更部35による遷移条件の変更処理が完了すると、ステップS110に戻って、上記一連の処理が繰り返し実行される。
 なお、前述した遠ざかる方向の視点移動における一連の処理(図4のステップS10~S60)と、近づく方向の視点移動における一連の処理(図7のステップS110~S160)とは、交互に繰り返して実行することも可能である。また、遷移条件が異なる複数のセットが所定の順番またはランダムに繰り返し実行されるようにしてもよい。例えば、遷移条件の異なる2つのセットが交互に実行されるようにすれば、一方のセットから他方のセットへ視点が移動する場合の視認性情報と、他方のセットから一方のセットへ視点が移動する場合の視認性情報とを取得することができ、所望の遷移条件を評価しやすくなる。
 上記のようにして本実施形態の視認性情報取得装置1によって取得された視認性情報とそれに関連付けられた遷移条件に関する情報は、例えば、自動車等の車両開発における各種オブジェクトの視認性評価や車両運転の模擬体験などに利用される運転シミュレータシステムにおいて、ユーザの視点が移動した際に実施される仮想空間画像の表示制御などに活用できる。図9は、本実施形態の視認性情報取得装置1で取得された視認性情報を基に運転シミュレータシステムに好適な遷移条件を決定し、該遷移条件に従って仮想空間画像の表示制御を実施した一例を示している。
 図9に示す仮想空間画像は、ユーザが装着するHMD等に表示される画像であって、ユーザが車両の運転席から見ることのできる仮想空間内の光景が表現されている。図示の例では、仮想空間画像は、車両を表すオブジェクトとして、ステアリングホイールの上部、ダッシュボードの上部、右側のフロントピラー、ルーフの前端部、ルームミラー、および右側のサイドミラー等を含んでいる。仮想空間画像の下部中央に表示されている数字の「8」は、ステアリングホイールの上端部付近の視認性を評価するためのオブジェクトである。また、仮想空間画像は、車外の静止物体を表すオブジェクトとして、道路、歩道、建物、および道路標識(一時停止)等を含んでいる。
 図9の上段に示す仮想空間画像は、ユーザの視点(□印)がステアリングホイールの上端部付近に表示されている数字の「8」のオブジェクト上の近位置Pnにあり、図中の破線で囲んだ視点周辺領域Anの内側に位置するオブジェクトにピントが合い、視点周辺領域Anの外側に位置するオブジェクトにはピントが合っていないぼやけた状態となっている。図中の白抜き矢印は、ユーザの視点の移動方向を示しており、ここでは、ユーザの視点が近位置Pnから車両前方の左側歩道上に設置されている道路標識のオブジェクト上の遠位置Pfに移動する。なお、ユーザの視点を示す□印は、実際の仮想空間画像には表示されない。
 ユーザの視点が近位置Pnから遠位置Pfに移動すると、視認性情報取得装置1で取得された視認性情報を基に決定した遷移条件に従って、移動先の視点周辺領域Af内のオブジェクトの表示状態が制御され、該オブジェクトの視認性がぼやけた状態(基準状態)からピントが合った状態(目的状態)に遷移する。図9の下段に示す仮想空間画像は、視認性の遷移が完了した状態を示している。また、図9の例では、移動先の視点周辺領域Af内におけるオブジェクトの視認性の遷移とは反対に、移動元の視点周辺領域An内におけるオブジェクトの視認性がピントの合った状態からぼやけた状態に遷移するように、該オブジェクトの表示状態が制御されている。
 上記のように本実施形態の視認性情報取得装置1で取得された視認性情報を基に遷移条件を決定し、該遷移条件に従って運転シミュレータシステムにおける仮想空間画像の表示制御を行うようにすれば、車両開発等において、仮想空間画像上に表示したオブジェクトの現実空間における視認性を正確に評価することが可能になる。また、運転シミュレータシステムを利用して車両運転の模擬体験を行えば、ユーザに対してよりリアルな運転体験を提供できるようになる。
 以上説明したように、本実施形態の視認性情報取得装置1では、表示制御部32が、被験者Sの前方の第1位置に第1識別子を表示させた後、該第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示させて、被験者Sの視点を第1位置から第2位置に移動させる。そして、表示制御部32が、遷移条件に従って第2識別子の表示状態を制御して、前記第2識別子の視認性を基準状態から目標状態に遷移させ、遷移中における第2識別子の視認性情報が情報取得部34により被験者Sから取得される。これにより、被験者S(ユーザ)の視点が移動した際に、現実空間の見え方に近い視認性を実現した仮想空間画像を生成可能にするために必要な情報を高い精度で取得することができる。
 また、本実施形態の視認性情報取得装置1では、第1識別子の表示から視認性情報の取得に至る一連の処理を1セットとし、互いに異なる遷移条件により複数セットが繰り返し実行される。これにより、多様な遷移条件に対応した視認性情報を容易に取得することができる。
 また、本実施形態の視認性情報取得装置1では、第2識別子の表示時間Tが1秒以内に設定されている。眼の焦点調整機能において、視点が移動した際に移動先で焦点を合わせるのに要する時間は概ね1秒以内である。このような眼の性質を考慮して第2識別子の表示時間Tを設定することにより、第2識別子の視認性情報を取得するための一連の処理を効率的に行うことができる。
 また、本実施形態の視認性情報取得装置1では、取得された視認性情報に基づいて遷移条件が変更される。これにより、多様な遷移条件を効率的に設定することができ、幅広い視認性情報を取得しやすくなる。
 また、本実施形態の視認性情報取得装置1において、第1および第2識別子が第1および第2表示装置(タブレット端末21、ディスプレイ22)に表示されるようにすれば、HMD等の仮想空間表示装置を用意する必要がなくなり、低コストで視認性情報を取得することができる。さらに、被験者に対して視点の移動を促す報知(アラート音の出力)が行われるようにすれば、被験者Sの視点移動が確実に行われるようになり、より精度の高い視認性情報を取得することが可能になる。
 以上、本発明の実施形態について述べたが、本発明は既述の実施形態に限定されるものではなく、本発明の技術的思想に基づいて各種の変形および変更が可能である。例えば、既述の実施形態では、被験者Sの視点移動が完了してから遅延時間Lが経過するまでの期間、第2識別子の視認性が基準状態に維持される一例を説明したが、遅延時間Lの間に視認性が微増するように第2識別子の表示状態を制御するようにしてもよい。
 また、既述の実施形態では、第2識別子の視認性の基準状態から目標状態への遷移が(1)式の関数に従って行われる一例を示したが、任意の関数、或いは視認性の状態と焦点距離とを関連付けたマップなどに従って、第2識別子の視認性の状態遷移が行われるようにしてもよい。
 第2識別子の視認性の状態遷移が(1)式に示した関数に従うようにした場合に、該(1)式のディオプターDo,Dtとして、既述の実施形態では、距離Dn,Dfの逆数を用いる一例を示したが、被験者Sから近位置Pnに表示される識別子Inまでの距離(焦点距離)の逆数や、被験者Sから遠位置Pfに表示される識別子Ifまでの距離(焦点距離)の逆数を、ディオプターDo,Dtとして用いるようにしてもよい。加えて、第2識別子の視認性の変化度合は、視点移動開始時の焦点距離と視点移動終了時の焦点距離との偏差に応じて変化させるようにすることも可能である。
 さらに、既述の実施形態では、記憶部31、表示制御部32、報知部33、情報取得部34、および条件変更部35の各機能(ブロック)が1つの情報処理部3(コンピュータシステム)内で実現される一例を説明した。しかし、上記各機能を実現する対象(制御装置)は、単一または複数の対象(制御装置)とすることが可能である。また、上記各機能は、複数の情報処理装置にそれぞれ分散させて実現するようにしてもよい。
 1…視認性情報取得装置
 2,2’…表示部
 3…情報処理部
 21…タブレット端末
 21’…仮想空間画像の第1領域
 22…ディスプレイ
 22’…仮想空間画像の第2領域
 31…記憶部
 32…表示制御部
 33…報知部
 34…情報取得部
 35…条件変更部
 An,Af…視点周辺領域
 L…遅延時間
 Pn…近位置
 Pf…遠位置
 S…被験者
 V0…視認性の基準状態
 V1…視認性の目標状態
 VR…仮想空間画像
 α…遷移時間
 τ…時間定数
 

Claims (7)

  1.  被験者の前方の第1位置に第1識別子を表示するとともに、前記第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させたときの前記第2識別子の視認性情報を取得する視認性情報取得装置の制御方法において、
     前記被験者の焦点が前記第1位置に合わされた状態となるように、前記第1位置に前記第1識別子を表示する第1表示ステップと、
     前記第2位置に前記第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させる第2表示ステップと、
     予め設定した遷移条件に従って前記第2識別子の表示状態を制御して、前記第2識別子の視認性を基準状態から該基準状態とは異なる目標状態に遷移させる制御ステップと、
     前記第2識別子の視認性の基準状態から目標状態への遷移中における前記第2識別子の視認性情報を前記被験者から取得する取得ステップと、
     を含むことを特徴とする視認性情報取得装置の制御方法。
  2.  前記第1表示ステップ、前記第2表示ステップ、前記制御ステップ、および前記取得ステップを1セットとして複数セットを繰り返し実行し、
     前記複数セットのそれぞれは、前記制御ステップにおける前記遷移条件が互いに異なることを特徴とする請求項1に記載の視認性情報取得装置の制御方法。
  3.  前記複数セットのそれぞれは、前記第2識別子の表示時間が1秒以内に設定されていることを特徴とする請求項2に記載の視認性情報取得装置の制御方法。
  4.  前記取得ステップで取得した前記視認性情報に基づいて、次セットの前記制御ステップで用いる前記遷移条件を変更するステップを含むことを特徴とする請求項2に記載の視認性情報取得装置の制御方法。
  5.  前記第1表示ステップは、前記第1位置に配置される第1表示装置に前記第1識別子を表示し、
     前記第2表示ステップは、前記第2位置に配置される第2表示装置に前記第2識別子を表示するとともに、前記被験者に対して視点の移動を促す報知を行う、ことを特徴とする請求項1に記載の視認性情報取得装置の制御方法。
  6.  被験者の前方の第1位置に第1識別子を表示するとともに、前記第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させたときの前記第2識別子の視認性情報を取得する視認性情報取得装置において、
     前記第1位置に前記第1識別子を表示可能であり、かつ、前記第2位置に前記第2識別子を表示可能な表示部と、
     前記第2識別子の視認性を基準状態から該基準状態とは異なる目標状態に遷移させる遷移条件を記憶した記憶部と、
     前記表示部に前記第1識別子を表示させた後に前記第2識別子を表示させるとともに、前記記憶部に記憶されている前記遷移条件に従って、前記第2識別子の表示状態を制御する表示制御部と、
     前記被験者に対して視点の移動を促す報知部と、
     前記第2識別子の視認性の基準状態から目標状態への遷移中における前記第2識別子の視認性情報を前記被験者から取得する情報取得部と、
     を備えることを特徴とする視認性情報取得装置。
  7.  前記情報取得部で取得された前記視認性情報に基づいて、前記記憶部に記憶されている前記遷移条件を変更する条件変更部を備えることを特徴とする請求項6に記載の視認性情報取得装置。
     
PCT/JP2022/012970 2021-09-30 2022-03-22 視認性情報取得装置の制御方法および視認性情報取得装置 WO2023053517A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202280064035.4A CN117980987A (zh) 2021-09-30 2022-03-22 视认性信息取得装置的控制方法和视认性信息取得装置
KR1020247007968A KR20240035929A (ko) 2021-09-30 2022-03-22 시인성 정보 취득 장치의 제어 방법 및 시인성 정보 취득 장치
US18/695,238 US20240274043A1 (en) 2021-09-30 2022-03-22 Control method for visibility information acquisition device and visibility information acquisition device
EP22875400.8A EP4411718A1 (en) 2021-09-30 2022-03-22 Control method for visibility information acquisition device and visibility information acquisition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-161259 2021-09-30
JP2021161259A JP2023050904A (ja) 2021-09-30 2021-09-30 視認性情報取得装置の制御方法および視認性情報取得装置

Publications (1)

Publication Number Publication Date
WO2023053517A1 true WO2023053517A1 (ja) 2023-04-06

Family

ID=85782155

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012970 WO2023053517A1 (ja) 2021-09-30 2022-03-22 視認性情報取得装置の制御方法および視認性情報取得装置

Country Status (6)

Country Link
US (1) US20240274043A1 (ja)
EP (1) EP4411718A1 (ja)
JP (1) JP2023050904A (ja)
KR (1) KR20240035929A (ja)
CN (1) CN117980987A (ja)
WO (1) WO2023053517A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH045948A (ja) * 1990-04-24 1992-01-09 Nissan Motor Co Ltd 認知機能測定装置
JP2000245697A (ja) * 1999-03-04 2000-09-12 Nippon Hoso Kyokai <Nhk> 視機能測定装置および視機能測定用記憶媒体
JP2014130204A (ja) * 2012-12-28 2014-07-10 Seiko Epson Corp 表示装置、表示システム、および、表示装置の制御方法
JP2017059196A (ja) * 2015-12-22 2017-03-23 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム
JP2017138701A (ja) 2016-02-02 2017-08-10 株式会社コロプラ 仮想空間画像提供方法、及びそのプログラム
US20200311881A1 (en) * 2018-01-23 2020-10-01 Facebook Technologies, Llc Systems and Methods for Generating Defocus Blur Effects
CN112806952A (zh) * 2020-12-31 2021-05-18 北京大学第三医院(北京大学第三临床医学院) 一种动态离焦曲线测试系统及其测试方法
JP2021514716A (ja) * 2018-02-23 2021-06-17 エシロール・アンテルナシオナル 被検者の視機能を変化させるための方法、被検者の球面屈折矯正の必要性を測定するための方法、及びこれらの方法を実施するための光学システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH045948A (ja) * 1990-04-24 1992-01-09 Nissan Motor Co Ltd 認知機能測定装置
JP2000245697A (ja) * 1999-03-04 2000-09-12 Nippon Hoso Kyokai <Nhk> 視機能測定装置および視機能測定用記憶媒体
JP2014130204A (ja) * 2012-12-28 2014-07-10 Seiko Epson Corp 表示装置、表示システム、および、表示装置の制御方法
JP2017059196A (ja) * 2015-12-22 2017-03-23 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム
JP2017138701A (ja) 2016-02-02 2017-08-10 株式会社コロプラ 仮想空間画像提供方法、及びそのプログラム
US20200311881A1 (en) * 2018-01-23 2020-10-01 Facebook Technologies, Llc Systems and Methods for Generating Defocus Blur Effects
JP2021514716A (ja) * 2018-02-23 2021-06-17 エシロール・アンテルナシオナル 被検者の視機能を変化させるための方法、被検者の球面屈折矯正の必要性を測定するための方法、及びこれらの方法を実施するための光学システム
CN112806952A (zh) * 2020-12-31 2021-05-18 北京大学第三医院(北京大学第三临床医学院) 一种动态离焦曲线测试系统及其测试方法

Also Published As

Publication number Publication date
KR20240035929A (ko) 2024-03-18
JP2023050904A (ja) 2023-04-11
US20240274043A1 (en) 2024-08-15
CN117980987A (zh) 2024-05-03
EP4411718A1 (en) 2024-08-07

Similar Documents

Publication Publication Date Title
US9771083B2 (en) Cognitive displays
EP3691926A1 (en) Display system in a vehicle
Pfannmüller et al. A comparison of display concepts for a navigation system in an automotive contact analog head-up display
JP2017030737A (ja) 車両用表示装置、および車両用表示方法
JP2021140785A (ja) 注意に基づいた通知
EP3575926A1 (en) Method and eye tracking system for providing an approximate gaze convergence distance of a user
CN112384883A (zh) 可穿戴设备及其控制方法
US11915340B2 (en) Generating a display of an augmented reality head-up display for a motor vehicle
CN113924518A (zh) 控制机动车的增强现实平视显示器装置的显示内容
Sudkamp et al. The role of eye movements in perceiving vehicle speed and time-to-arrival at the roadside
WO2023053517A1 (ja) 視認性情報取得装置の制御方法および視認性情報取得装置
KR20230034448A (ko) 차량 및 그 제어 방법
WO2023053515A1 (ja) 仮想空間画像生成装置および方法
CN106095375B (zh) 显示控制方法和装置
JP2007280203A (ja) 情報提示装置、自動車、及び情報提示方法
JP7261370B2 (ja) 情報処理装置、情報処理システム、情報処理方法、および、コンピュータプログラム
WO2023053516A1 (ja) 仮想空間画像生成装置および方法
JP2021056358A (ja) ヘッドアップディスプレイ装置
KR20210025765A (ko) 차량 디스플레이 제어 장치, 그를 포함한 시스템 및 그 방법
WO2021200913A1 (ja) 表示制御装置、画像表示装置、及び方法
JP2021124972A (ja) 情報処理システム、および情報処理プログラム
JP2017102331A (ja) 車両用ヘッドアップディスプレイの評価支援装置
CN113360109A (zh) 车载显示方法、设备及车辆
KR20230171396A (ko) 헤드업 디스플레이를 위한 고스트 이미지 완화
CN118778255A (zh) 图像处理方法、抬头显示装置、计算机可读介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22875400

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20247007968

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202280064035.4

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 18695238

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202417026309

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022875400

Country of ref document: EP

Effective date: 20240430