WO2006064655A1 - 情報提示装置及び情報提示方法 - Google Patents

情報提示装置及び情報提示方法 Download PDF

Info

Publication number
WO2006064655A1
WO2006064655A1 PCT/JP2005/021823 JP2005021823W WO2006064655A1 WO 2006064655 A1 WO2006064655 A1 WO 2006064655A1 JP 2005021823 W JP2005021823 W JP 2005021823W WO 2006064655 A1 WO2006064655 A1 WO 2006064655A1
Authority
WO
WIPO (PCT)
Prior art keywords
presentation
information
user
sight
line
Prior art date
Application number
PCT/JP2005/021823
Other languages
English (en)
French (fr)
Inventor
Kakuya Yamamoto
Keiji Sugiyama
Hideaki Nakaoka
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to CN2005800430475A priority Critical patent/CN101080691B/zh
Priority to JP2006548746A priority patent/JP4268191B2/ja
Priority to US11/792,224 priority patent/US8327279B2/en
Publication of WO2006064655A1 publication Critical patent/WO2006064655A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to an information presentation device that presents information to a user.
  • HMD Head Mounted Display
  • goggles or helmets are becoming widespread.
  • HMD Head Mounted Display
  • one image is presented in front of the left and right eyes.
  • Some can express a sense of standing by making the left and right images slightly different.
  • Information presented to the user is not limited to still images. Videos such as TV programs and texts can also be presented to the user.
  • HMDs can be roughly divided into two types. One is a sealed type that blocks the incidence of external light and presents only virtual images to the user. The other is a transmission type that presents a virtual image to the user together with a natural image due to the incidence of external light.
  • presentation information is visually recognized by the interaction between the external scene and the information presented to the user (hereinafter referred to as “presentation information”).
  • This conventional HMD includes a camera that monitors the outside world, and detects the color of the outside world using this camera. Then, it is determined whether or not the color of the presentation information is similar to the color of the outside world of the portion that overlaps with the presentation information. If the two are similar, the color of the presentation information is changed. In this way, the information can be presented to the user in a color that is not similar to the color of the outside world, so that there is no problem that the presentation information is visually recognized in relation to the outside world.
  • Patent Document 1 JP-A-9-101477
  • the conventional HMD has a problem that information cannot be viewed with peace of mind when visually recognizing information that requires a certain amount of time, such as long texts and television programs.
  • information that requires a certain amount of time, such as long texts and television programs.
  • it is expected that it will be impossible to observe the outside world carefully, paying attention to the viewing.
  • it is possible to secure more safety by taking care that the user himself / herself carefully observes the outside world, but in this case, it will hinder viewing the information presented.
  • an object of the present invention is to provide an information presentation apparatus that allows a user to visually recognize presentation information while ensuring more safety.
  • an information presentation apparatus for presenting information to a user, the situation information acquisition means for acquiring situation information regarding the situation of the user, and the situation Based on the situation information acquired by the information acquisition means, an observation gaze estimation means for estimating the observation gaze of the user observing the outside world, a presentation information acquisition means for obtaining presentation information to be presented to the user, and the presentation information Visual gaze estimation means for estimating a visual line of sight of a user who visually recognizes the presentation information acquired by the acquisition means, observation visual line estimated by the observation visual line estimation means, and visual recognition estimated by the visual visual line estimation means Based on the line of sight !, the presentation method determining means for determining the presentation method of the presentation information acquired by the presentation information acquisition means, and the presentation information acquisition means Characterized in that it comprises an information presenting means for presenting to the user presentation information by the presentation method determined by said presentation method determining unit has. As a result, the information is presented in consideration of the two lines of sight, the viewing line
  • the situation information acquisition unit may acquire information related to the user's course, and the presentation method determination unit may project the presentation information along the user's path. .
  • the situation information acquisition unit may acquire information related to a user's course, and the presentation method determination unit may arrange the constituent parts of the presentation information in chronological order along the user's path. As a result, the load of eye movement can be reduced, and the presentation information can be made visible to the user while further ensuring safety.
  • the observation line-of-sight estimation unit estimates a viewpoint position of a user observing the outside world for each unit time
  • the visual line-of-sight estimation unit calculates the viewpoint position of the user who views the presentation information as a unit.
  • the estimation method is estimated for each time, and the presentation method determining means obtains an intersection point with a specific surface by both the observation line of sight and the visual line of sight for each unit time, and the distance between the both points is within a predetermined range.
  • the presentation method of the presentation information is determined so as to fit.
  • the predetermined range is set to a small distance, the load of eye movement is reduced, and the user can visually recognize the presentation information while ensuring safety. Also, the observation line of sight or visual line of sight cannot be estimated accurately! Even in cases where the presentation information presentation method cannot be controlled in detail, the presentation method can be improved to some extent. Furthermore, by making the difference between the above-mentioned visual line of sight and the visual line of sight zero, it is possible to prevent the presentation information from completely overlapping the external environment around the user and obstructing the recognition of the external environment. is there.
  • the visual line-of-sight estimation unit may divide the presentation information into a plurality of parts, and the presentation method determination unit may determine a presentation method for each of the divided parts.
  • the presentation method determination unit may determine a presentation method for each of the divided parts.
  • the situation information acquisition unit acquires object information related to an object existing on the user's path, and the presentation method determination unit arranges the presentation information so that the user's line of sight faces the object. May be. As a result, the user's line of sight is directed toward the object to be noticed, so that the safety of the user can be further ensured.
  • the situation information acquisition means acquires physical information relating to an object existing on the user's path, and the presentation method determination means determines the presentation information so that the user's line of sight does not face the object. You may arrange. As a result, the user's line of sight is not directed toward an object that should not be stared, so that the safety of the user can be further ensured.
  • the observation line-of-sight estimation means may estimate a plurality of observation lines of sight suitable for each situation of the user that may occur. As a result, it is possible to select the line of sight according to the user's behavior pattern and preferences as the observation line of sight.
  • the visual line-of-sight estimation means may estimate a plurality of visual lines of sight at a speed suitable for visually recognizing each part of the presentation information. This makes it possible to read important parts slowly, while reading unimportant parts at high speed.
  • a line of sight that recognizes an important event for the user is selected as a visual line of sight among the events around the user, the user moves the line of sight according to the visual recognition of the presented information. It becomes like this.
  • the situation information acquisition unit acquires information related to the user's course
  • the presentation method determination unit allows the user to check the intersection left and right when the user is forced to make an intersection. You may arrange
  • the present invention can be realized as an information presentation method that can be realized as such an information presentation device, and has a characteristic means included in an information presentation device such as NAGKO as a step. It can also be realized as a program that causes a computer to execute steps. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet. The invention's effect
  • the load of eye movement is reduced, and the presentation information can be viewed by the user while ensuring more safety.
  • FIG. 1 is a diagram showing a state in which a user wears the HMD according to the present invention.
  • FIG. 2 is a functional block diagram of the main part of the HMD according to the present invention.
  • FIG. 3 is a diagram showing how the HMD according to the present invention acquires map information.
  • FIG. 4 is a diagram showing a state in which the user is wearing the HMD according to the present invention.
  • FIG. 5 is a flowchart showing the operation of the HMD according to the present invention.
  • FIG. 6 is a diagram showing a user's walking path.
  • FIG. 7 is a diagram showing the contents of an electronic mail.
  • FIG. 8 is a diagram showing a state visible to the user.
  • FIG. 9 (A) and FIG. 9 (B) are diagrams showing an example of the reference information stored in the observation gaze estimation reference storage unit.
  • FIG. 10 is a diagram showing a method of estimating the observation line of sight.
  • FIGS. 11A and 11B are diagrams showing an example of reference information stored in the visual line-of-sight estimation reference storage unit.
  • FIG. 12 is a diagram illustrating a method of estimating the visual line of sight.
  • FIG. 13 is a diagram showing the difference between the observation line of sight and the visual line of sight.
  • FIG. 14A, FIG. 14B, and FIG. 14C are diagrams showing the difference between the observation line of sight and the visual line of sight.
  • FIG. 15 is a diagram showing an example of presentation method information stored in a presentation method storage unit.
  • FIG. 16 is a diagram showing an example of a presentation method.
  • Fig. 17 is a diagram showing a state visible from the user after 0 second.
  • FIG. 18 is a diagram showing the state seen from the user after 2 seconds.
  • Fig. 19 is a diagram showing the state seen from the user after 4 seconds.
  • FIG. 20 is a diagram showing the state seen from the user after 7 seconds.
  • FIG. 21 is a diagram showing a state visible from the user after 0 seconds.
  • FIG. 22 is a diagram showing the state seen from the user after 2 seconds.
  • Fig. 23 is a diagram showing the state seen from the user after 4 seconds.
  • FIG. 24 is a diagram showing the state seen from the user after 7 seconds.
  • FIG. 25 is a diagram showing a state visible from the user after 0 second.
  • Fig. 26 is a diagram showing the state seen from the user after 2 seconds.
  • Fig. 27 is a diagram showing the state seen from the user after 4 seconds.
  • FIG. 28 is a diagram showing a state seen from the user after 7 seconds.
  • FIG. 29 is a diagram showing a state visible from the user after 0 second.
  • FIG. 30 is a diagram showing a state visible to the user after 2 seconds.
  • FIG. 31 is a diagram showing a state visible to the user after 4 seconds.
  • FIG. 32 is a diagram showing a state visible to the user after 7 seconds.
  • FIG. 33 is a diagram showing a situation where a walking user goes straight through an intersection.
  • FIG. 34 is a diagram showing a walking route of a user who goes straight through an intersection.
  • FIG. 35 is a diagram showing a state in which the user force traveling straight through an intersection is also visible.
  • FIG. 36 is an example of presentation when a user who is going straight ahead approaches an object of interest.
  • FIG. 37 is an example of presentation when a user who is traveling straight ahead approaches a gaze avoidance object.
  • the HMD is exemplified as the information presentation device according to the invention.
  • FIG. 1 is a diagram showing a state in which a user wears the HMD 100 according to the present invention.
  • the HMD 100 is similar in appearance to the conventional HMD, and includes a computer 11 that performs various controls for presenting information to the user, and an LCD (Liq uid Crystal Display ), An optical element (presentation curtain) 13 disposed in front of the user's eyes, headphones 14 for voice guidance, and a mounting member 15 for mounting the HMD on the user's head 1 And a receiver 16 for receiving the Internet power presentation information.
  • a computer 11 that performs various controls for presenting information to the user
  • LCD Liq uid Crystal Display
  • An optical element (presentation curtain) 13 disposed in front of the user's eyes
  • headphones 14 for voice guidance
  • a mounting member 15 for mounting the HMD on the user's head 1
  • a receiver 16 for receiving the Internet power presentation information.
  • One surface of the optical element 13 is a concave aspherical surface, and a half mirror film is applied thereon to reflect information displayed on the display device 12 to form a virtual image. Further, since the other surface of the optical element 13 is an aspherical convex surface that is almost the same as the concave surface so that the outside world can be observed, the user can visually recognize the information displayed on the display device 12 so as to overlap the outside world. It will be.
  • FIG. 2 is a functional block diagram of the main part of the HMD 100 according to the present invention.
  • the HMD 100 is a device that presents information to the user. Functionally, the HMD 100 provides a situation information acquisition unit 101, a observation gaze estimation unit 102, a presentation information management unit 103, a visual gaze estimation unit 104, and a presentation A law determination unit 105, an information presentation unit 106, an observation line-of-sight estimation reference storage unit 107, a visual line-of-sight estimation reference storage unit 108, and a presentation method storage unit 109 are provided.
  • the situation information acquisition unit 101 is a camera that acquires situation information about a user's situation, GPS
  • the status information includes information about the user's current position, map information, direction and speed of the user's movement, and the user's physical condition (position, orientation, posture, heart rate, body temperature, etc.). It is news. This information can also be used as status information if a past action history is taken and a future action schedule (such as a destination) is set in advance.
  • FIG. 3 is a diagram showing a state in which the HMD 100 according to the present invention acquires map information.
  • the status information acquisition unit 101 of the HMD 100 includes a terminal 300 installed in the user's home, a mobile phone 400 owned by the user, a Sano 3 ⁇ 400 that provides a map distribution service, etc.
  • the map information is acquired via the Internet 200. It is also possible to obtain map information directly from these devices without going through the Internet 200.
  • the observation gaze estimation unit 102 estimates the observation gaze of the user who observes the outside world based on the situation information acquired by the situation information acquisition unit 101. For example, when the course information is acquired by the situation information acquisition unit 101, an observation line of sight according to the course is estimated.
  • the route information is information related to the user's route, and specifically, the user's current location acquired by GPS, map information, a preset action schedule (destination), and the like.
  • the presentation information acquisition unit 103 is a communication IZF or the like that acquires presentation information to be presented to the user.
  • the presentation information is text such as an e-mail or video such as a television program.
  • Such presentation information can be received by the Internet 16 by the receiver 16 shown in FIG.
  • the storage unit 18 may be a personal computer, for example.
  • the personal computer may be connected to a LAN (Local Area Network), the Internet, or the like.
  • the visual line-of-sight estimation unit 104 estimates the visual line of sight of the user who visually recognizes the presentation information acquired by the presentation information acquisition unit 103. For example, considering the presentation information attribute and HMD100 attribute, the number of characters visually recognized by the user per unit time (for example, 1 second) is determined, and the visual line of sight of the user viewing the presentation information based on the number of characters is determined. Is estimated.
  • the presentation method determination unit 105 is based on the observation gaze estimated by the observation gaze estimation unit 102 and the visual gaze estimated by the visual gaze estimation unit 104! / The presentation method of the obtained presentation information is determined. Specifically, the presentation information presentation method is determined so that the difference between the observation line of sight and the visual line of sight falls within a predetermined range.
  • the information presentation unit 106 presents the presentation information acquired by the presentation information acquisition unit 103 to the user by the presentation method determined by the presentation method determination unit 105.
  • the specific presentation mode will be described in detail later with reference to the drawings.
  • the observation line-of-sight estimation reference storage unit 107 stores information indicating a reference for estimating the observation line of sight.
  • the visual line-of-sight estimation reference storage unit 108 stores information indicating a reference for estimating the visual line of sight.
  • the presentation method storage unit 109 stores information indicating the presentation method of the presentation information.
  • the HMD 100 According to the conventional HMD, as shown in Fig. 8, the road being walked is reflected from the front to the back, and the content of the received e-mail A is presented overlapping this road. It will be. According to such a presentation method, the user's line of sight concentrates at the bottom of the screen, and information cannot be viewed with peace of mind. Therefore, the HMD 100 according to the present invention employs the following method.
  • the situation information acquisition unit 101 acquires the situation of a user who is walking as situation information.
  • the situation information here is route information, for example.
  • the current position of the user can be obtained by GPS, and the route information can be calculated as the destination force set in advance on the map. Even if the destination is not set on the map in advance, if there is a behavior history when walking in the past, it is possible to predict the route information using this behavior history.
  • the observation line-of-sight estimation unit 102 refers to the reference information stored in the observation line-of-sight estimation reference storage unit 107 and estimates the user's observation line of sight.
  • FIG. 9A is a diagram showing an example of reference information stored in the observation line-of-sight estimation reference storage unit 107.
  • the criteria for estimating the observation line of sight are associated with each user's situation. Specifically, the user's situational force ⁇ constant linear motion is associated with the observation line-of-sight force S "constant linear motion". In addition, the user's situation is “going straight at the intersection” and the observation line of sight is “confirm left / right”.
  • the observation line-of-sight estimation unit 102 estimates that the user's observation line of sight moves from the front of the road to the back along with walking because the user is traveling straight on the straight road.
  • the viewpoint position after 0 seconds is RO point
  • the viewpoint position after 2 seconds is R2
  • the viewpoint position after 4 seconds is R4
  • the viewpoint position after 7 seconds is Estimated to be R7 To do.
  • the presentation information acquisition unit 103 receives an electronic mail (S203)
  • the electronic mail is managed as presentation information.
  • the visual line-of-sight estimation unit 104 refers to the reference information stored in the visual line-of-sight estimation reference storage unit 108, and the user who visually recognizes the e-mail Is estimated (S204)
  • FIG. 11A shows an example of reference information stored in the visual line-of-sight estimation reference storage unit 108.
  • the criteria for estimating the visual line of sight are associated with each type of presentation information.
  • the presentation information is “e-mail” and the viewing speed is “5 characters Z seconds”.
  • the presentation information is “TV program” and the viewing speed is “1 scene Z seconds”.
  • FIG. 12 is a diagram showing viewpoint movement of the user who visually recognizes the e-mail. Since the e-mail is presented in horizontal writing, it can be estimated that the viewpoint of the user viewing this e-mail moves from left to right in order from the first line. Here, it is estimated that the viewpoint position after 0 seconds is V0, the viewpoint position after 2 seconds is V2, the viewpoint position after 4 seconds is V4, and the viewpoint position after 7 seconds is V7. In other words, assuming that the speed of reading characters is constant (here, 5 characters Z seconds), the character being read in the future is specified, and the position where the character is presented is estimated as the viewpoint position.
  • the presentation method determination unit 105 obtains a difference between the two lines of sight (S205). That is, as shown in FIG. 13, the difference between the two lines of sight after 0 seconds is indicated by arrow DO, the difference between the two lines of sight after 2 seconds is indicated by arrow D2, and the difference between the two lines of sight after 4 seconds is indicated by arrow D4.
  • the difference between the two lines of sight after 2 seconds can be expressed as arrow D7.
  • FIG. 14 (A) an intersection P1 between the observation line of sight and the optical element 13 is obtained.
  • FIG. 14B an intersection point P2 between the viewing line of sight and the optical element 13 is obtained.
  • Fig. 14 (C) find the distance L1 between intersection P1 and intersection P2. This distance L1 is the size of the arrow DO, for example.
  • the presentation method determination unit 105 determines whether or not the difference thus obtained is within a predetermined range (S206).
  • the size of the arrows D0, D2, D4, and D7 is 2 mm or less on the optical element 13. If the sizes of the arrows D0, D2, D4, and D7 are all 2 mm or less on the optical element 13, the electronic mail presentation method is not changed (S206 ⁇ S208). On the other hand, if the size of any of the arrows D0, D2, D4, and D7 exceeds 2 mm on the optical element 13, the e-mail presentation method is changed (S206 ⁇ S207).
  • FIG. 15 is a diagram showing an example of presentation method information stored in the presentation method storage unit 109.
  • the type of presentation method is associated with each type of presentation information.
  • the presentation information is “e-mail” and the presentation method is “projection presentation method”.
  • the presentation information is “TV program” and the presentation method is “partial presentation method”.
  • the projection presentation method is a presentation method in which presentation information is projected and arranged along the user's path.
  • the partial presentation method is a presentation method in which the constituent parts of the presentation information are arranged in chronological order along the user's path.
  • the presentation method determination unit 105 changes the e-mail presentation method from the presentation method shown in FIG. 13 to the projection presentation method.
  • FIG. 16 is a diagram showing an example of a change in the electronic mail presentation method.
  • the presentation method determination unit 105 changes the presentation method of the e-mail so that the sizes of the arrows D0, D2, D4, and D7 are all 2 mm or less on the optical element 13.
  • RO point and VO point, R2 point and V2 point, R4 point and V4 point, R7 point and V7 point are close to each other. I understand.
  • FIG. 17 shows a state that can be seen by the user after 0 seconds. In this state, the characters “From” are shown in the foreground.
  • FIG. 18 shows a state where the user's power can be seen after 2 seconds. In this state, the text “Title” appears in the foreground.
  • Figure 19 shows the state where the user's power is visible after 4 seconds. In this state, the text “text” appears in front.
  • Figure 20 shows the state visible to the user after 7 seconds. In this state, the continuation of the “text” appears in the foreground. In this way, according to this presentation method, your power can be seen as if the content of the email is drawn on the road. become.
  • HMDIOO estimates the viewing line of sight based on the situation information and estimates the visual line of sight based on the presentation information. Then, the intersections P1 and P2 between the two lines of sight estimated as described above and the optical element 13 are obtained, and when the distance L1 between the intersection P1 and the intersection P2 exceeds 2 mm, the distance L2 is set to 2 mm or less. , Change email presentation
  • the information presentation device of the present invention it is possible to arrange the presentation information so that the line of sight is directed in a safe direction for the user. Specifically, the difference between the observation line of sight and the visual line of sight is obtained, and the presentation information presentation method is determined so that this difference is a small distance, so the load of line-of-sight movement is reduced and more safety is ensured.
  • the presentation information can be made visible to the user.
  • the e-mail presentation method is not limited to the projection presentation method described above.
  • the content of the e-mail may be divided into a plurality of components, and each component may be presented along the user's path in chronological order. In other words, only the presentation mode will be described.
  • FIG. 21 shows a state where user power can be seen after 0 seconds, FIG. 22 after 2 seconds, FIG. 23 after 4 seconds, and FIG. 24 after 7 seconds.
  • the e-mail may be presented in the vertical direction along the user's path. That is, FIG. 25 shows the state that can be seen by the user after 0 second, FIG. 26 after 2 seconds, FIG. 27 after 4 seconds, and FIG. 28 after 7 seconds.
  • the presentation information is not limited to e-mail.
  • the TV program video may be divided into scenes, and each scene video may be presented along the user's path in chronological order.
  • Fig. 29 shows the user power after 0 seconds
  • Fig. 30 after 2 seconds
  • Fig. 31 after 4 seconds
  • Fig. 32 after 7 seconds! /
  • the presentation information is originally composed of a plurality of component parts, it is not necessary to divide the presentation information into a plurality of component parts.
  • the process of dividing the TV program video can be omitted.
  • the email is originally divided into units of “sender”, “title”, and “text”, the process of dividing can be omitted as in the case of the video of the television program.
  • either of the operations of S201 and S203 in Fig. 5 may be performed first. In other words, it is sufficient that the operation of S201 is completed by the operation of S202, and the operation of S203 may be completed by the operation of S204.
  • either the operation of S202 or the operation of S204 may be performed first. In other words, it is only necessary to complete the operation force of S202 and S204 before the operation of S205.
  • each operation shown in FIG. 5 may be performed immediately one after another, may be performed in parallel, or may be performed at a time.
  • the line of sight estimated in S202 and S204 in Fig. 5 may not be one. That is, a plurality of line-of-sight candidates may be estimated, and the realization probability of each line-of-sight candidate may be estimated.
  • FIG. 9B is a diagram showing another example of reference information stored in the observation line-of-sight estimation reference storage unit 107.
  • the probability of the situation occurring and the observation line of sight appropriate for the situation are associated with each user situation immediately after reaching the intersection. Specifically, the probability of going straight is 80%. In this case, it is stipulated that the observation line of sight is shifted in the order of “right”, “left”, and “front”. The probability of making a right turn is 20%. In this case, it is specified that the viewing line of sight is shifted in the order of “right”, “left”, and “right”. The probability of making a left turn is 0%. In this case, it is specified that the observation line of sight is shifted in the order of “left”, “right”, and “left”. The probability of turning back is 0%, and in that case, it is specified that the observation line of sight is rotated 180 degrees.
  • the observation gaze estimation unit 102 estimates two observation gazes assuming that the probability of going straight is 80% and the probability of turning right is 20%. May be. In this case, since the probability of going straight is the highest, it is preferable to select an observation line of sight suitable for going straight. However, if the user makes a right turn without going straight ahead, it is preferable to preliminarily estimate and change the observation line of sight suitable for a right turn.
  • a plurality of visual line-of-sight candidates may be estimated for each constituent part of the e-mail.
  • FIG. 11B is a diagram showing another example of the reference information stored in the visual line-of-sight estimation reference storage unit 108.
  • a viewing speed suitable for reading that part is specified.
  • the highest importance A part is “3 characters "Z second”, second highest, importance B is "4 letters Z seconds", third highest, importance C is "5 letters Z seconds”, fourth highest, importance D Is defined as “6 characters Z seconds”, the fifth highest, and the importance level E is set to a viewing speed of “7 characters Z seconds”.
  • the visual line of sight estimation unit 104 determines the importance A to E for each constituent part of the email, and estimates the visual line of sight when the part is read at a speed corresponding to the determined importance. The As a result, important parts can be read slowly, and unimportant parts can be read at high speed.
  • the force for determining whether or not the size of the arrows D0, D2, D4, and D7 is 2 mm or less on the optical element 13 is not limited to this. .
  • Embodiment 1 since it is assumed that the user is making a straight advance on a straight road without an intersection, the user's walking path and the observation line of sight almost coincide. In the present embodiment, a scene in which the user's walking path does not match the observation line of sight will be described.
  • FIG. 33 is a diagram showing a situation where a walking user goes straight through an intersection.
  • the walking path and the observation line of sight almost coincided.
  • FIG. 34 shows a view that can be seen from the user when the e-mail is arranged in this way. Reading the e-mails in sequence automatically moves the line of sight to “right”, “left”, and “right” at the intersection so that you can check left and right.
  • the information presenting apparatus according to the present embodiment, it is possible to allow the user who goes straight at the intersection to check the left and right, so that the safety of the user can be further improved. It becomes possible. Since the other points are the same as those of the first embodiment, detailed description thereof is omitted here.
  • the configuration in which the presentation information is uniformly arranged along the user's path is exemplified.
  • the position of the presentation information is changed according to the object that affects the line of sight. Arrange the position, spacing, and distribution. That is, the situation information acquisition unit 101 acquires object information about an object existing on the user's path, and the presentation method determination unit 105 determines the presentation information presentation method based on the acquired object information. .
  • FIG. 36 is an example of presentation when a user who is traveling straight ahead approaches an object of interest.
  • the object of interest here is, for example, a bicycle or the like, and is an object that should be noted by the user.
  • the user can easily notice the target object after reading the “title” until reading the “text”. ing.
  • FIG. 37 is an example of presentation when a user who is traveling straight ahead is approaching a staring avoidance object.
  • the gaze avoidance object here is, for example, a stranger or the like and should not be excessively stared.
  • the gaze avoidance object is not directed toward the staring avoidance object for a long time. Yes.
  • Whether an object existing on the user's path is a target object or a gaze avoidance object can be determined by photographing a front scene and analyzing the photographed image.
  • each unit in FIG. 2 may be on one computer or not on one computer.
  • the presentation method determination unit 105 and the information presentation unit 106 may be in different devices, and the presentation information acquisition unit 103 may be a server device on the Internet.
  • each unit may be distributed on a plurality of computers, or a plurality of units (for example, the information presentation unit 106) in FIG. 2 may exist on one computer.
  • multiple users can share each part in Fig. 2.
  • a force exemplifying a transmission type HMD is not limited to this. That is, the present invention can also be applied to a sealed HMD in which an image of the outside world photographed by a camera or the like is superimposed on a virtual image and displayed on a display device such as an LCD.
  • the information presentation unit 106 may include a head-mounted display, a face-mounted display, an ocular display, a transmissive display, a retinal scanning display, an information presentation unit of a mobile phone or a mobile TV or a mopile terminal, a projector, and the like.
  • the present invention can be applied as long as it is an apparatus provided with each part shown in FIG.
  • the line of sight may be estimated by extracting eye feature points (between white eyes and black eyes, etc.) from eyeball images captured by a camera.
  • identification information such as a mark may be added to the contact lens or the eyeball surface, and the line of sight may be estimated by recognizing the position.
  • the line of sight may be estimated by measuring changes in electrical properties such as the electrical resistance in the vicinity of the eyeball and the current 'voltage. Or, for example, if the line of sight moves with the movement of the body or head, such as “the head moves to the left because the head turns to the left”! May be estimated.
  • the user can predict the strength of the user's interest in the situation and objects around the user by taking into account personal preferences such as showing interest in the kitten. Perspective power to focus on an object of strong interest.
  • the eye that is the target of gaze estimation can be either the left or right eye, or the left or right eye! /, Or both the left and right eyes.
  • the gaze is estimated here, estimating the viewpoint and the point of interest is substantially the same as estimating the gaze.
  • the estimated line of sight may be an area instead of a point. For example, You can estimate the line of sight in the area, such as “Look at the left after 2 seconds!”.
  • the power to change the presentation position of the presentation information Any force such as the color tone, brightness, transparency, size, orientation, and depth to be presented may be changed. May change the playback state of presentation information (pause, resume, interrupt, fast forward, rewind, slow play, summary play, partial play, etc.).
  • changes in the presentation method may be intermittent. For example, when changing the presentation position, once presentation is stopped, it may be presented again at a different position.
  • the power information that exemplifies an e-mail and a television program as the presentation information includes at least one of a video like a TV program, text like an e-mail, still image, signal, etc. Should be included.
  • a method for managing the presentation information a method in which the presentation information acquisition unit 103 itself holds all or part of the presentation information itself may be adopted as this method. The method of holding the position of the presentation information so that the information can be acquired may be adopted, or the method of holding the position of another presentation information acquisition unit that holds the position of the presentation information may be adopted. Good.
  • the presentation information presentation method is determined so that the difference between the observation line of sight and the visual line of sight falls within a predetermined range, but the present invention is not limited to this.
  • the presentation method may be determined so that one of the visual line of sight or the visual line of sight precedes the other, or the information presentation is stopped according to the movement of the visual line of sight, or the user's behavior is changed. So, let's decide how to present it.
  • the information presentation apparatus is useful as an information presentation apparatus that presents information to the user, and particularly as an HMD that requires the presentation information to be visually recognized by the user while ensuring more safety.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 本発明は、より安全性を確保しながらユーザに提示情報を視認させることができる情報提示装置を提供する。  情報提示装置は、ユーザの状況に関する状況情報を取得する状況情報取得部101と、状況情報に基づいて、外界を観察するユーザの観察視線を推定する観察視線推定部102と、ユーザに提示する提示情報を取得する提示情報取得部103と、提示情報を視認するユーザの視認視線を推定する視認視線推定部104と、観察視線と視認視線とに基づいて、提示情報の提示法を決定する提示法決定部105と、提示情報を提示法決定部105によって決定された提示法によってユーザに提示する情報提示部106とを備える。                                                                                 

Description

明 細 書
情報提示装置及び情報提示方法
技術分野
[0001] 本発明は、ユーザに情報を提示する情報提示装置に関する。
背景技術
[0002] 近年、ゴーグルやへルメットのような形状の HMD (Head Mounted Display)と呼ば れる情報提示装置が普及しつつある。 HMDを頭部に装着すると、左右の目のすぐ 前に画像が一つずつ提示される。左右の画像を少しずつ異ならせることによって、立 体感を表現することができるものもある。ユーザに提示する情報は静止画に限らない 。テレビ番組のような映像やテキストなどもユーザに提示することができる。
[0003] HMDは二つの型に大別することができる。一つは、外界光の入射を遮断して仮想 の画像のみをユーザに提示する密閉型である。もう一つは、外界光の入射による自 然画像とともに仮想の画像をユーザに提示する透過型である。
[0004] 透過型の HMDによれば、行動(歩行など)しながらも情報を視認することができる。
ただし、外界のシーンと、ユーザに提示する情報 (以下「提示情報」という)との相互作 用によって、提示情報を視認しに《なる場合がある。
[0005] 例えば、提示情報の色と、この提示情報とオーバラップする部分の外界の色とが類 似している場合は、提示情報を視認しに《なる。そこで、外界の色に応じて提示情 報の色を制御する HMDが提案されて 、る(例えば特許文献 1)。
[0006] この従来の HMDでは、外界をモニターするカメラを備え、このカメラによって外界 の色を検出する。そして、提示情報の色と、この提示情報とオーバラップする部分の 外界の色とが類似しているかどうかを判定し、両者が類似している場合は、提示情報 の色を変更する。このようにすれば、外界の色と類似しない色でユーザに情報を提示 することができるので、外界との関係で提示情報が視認しに《なるという問題は生じ ない。
特許文献 1 :特開平 9— 101477号公報
発明の開示 発明が解決しょうとする課題
[0007] しかしながら、前記従来の HMDでは、長文テキストやテレビ番組など、ある程度の 時間を要する情報を視認する場合にぉ 、て、安心して情報を視聴できな 、と 、う問 題があった。すなわち、長文テキストやテレビ番組を視認する場合は、視認に気をと られて、外界を注意深く観察することができなくなることが予想される。もっとも、ユー ザ自身が外界を注意深く観察するように心掛けることで、より安全性を確保することは できるが、この場合は、提示情報を視認することに支障をきたすことになる。
[0008] そこで、本発明は、このような問題点に鑑みてなされたものであり、より安全性を確 保しながらユーザに提示情報を視認させることができる情報提示装置を提供すること を目的とする。
課題を解決するための手段
[0009] 前記目的を達成するために、本発明に係る情報提示装置は、ユーザに情報を提示 する情報提示装置であって、ユーザの状況に関する状況情報を取得する状況情報 取得手段と、前記状況情報取得手段によって取得された状況情報に基づいて、外 界を観察するユーザの観察視線を推定する観察視線推定手段と、ユーザに提示す る提示情報を取得する提示情報取得手段と、前記提示情報取得手段によって取得 された提示情報を視認するユーザの視認視線を推定する視認視線推定手段と、前 記観察視線推定手段によって推定された観察視線と前記視認視線推定手段によつ て推定された視認視線とに基づ!、て、前記提示情報取得手段によって取得された提 示情報の提示法を決定する提示法決定手段と、前記提示情報取得手段によって取 得された提示情報を前記提示法決定手段によって決定された提示法によってユー ザに提示する情報提示手段とを備えることを特徴とする。これによつて、観察視線と 視認視線という 2つの視線を考慮して情報を提示することになるので、より安全性を確 保しながらユーザに提示情報を視認させることができる。
[0010] 具体的には、前記状況情報取得手段は、ユーザの進路に関する情報を取得し、前 記提示法決定手段は、ユーザの進路に沿って投影的に前記提示情報を配置しても よい。これによつて、視線移動の負荷が軽減され、より安全性を確保しながらユーザ に提示情報を視認させることができる。 [0011] あるいは、前記状況情報取得手段は、ユーザの進路に関する情報を取得し、前記 提示法決定手段は、ユーザの進路に沿って前記提示情報の構成部分を時系列順に 配置してもよい。これによつて、視線移動の負荷が軽減され、より安全性を確保しなが らユーザに提示情報を視認させることができる。
[0012] より具体的には、前記観察視線推定手段は、外界を観察するユーザの視点位置を 単位時間別に推定し、前記視認視線推定手段は、前記提示情報を視認するユーザ の視点位置を単位時間別に推定し、前記提示法決定手段は、単位時間別に、前記 観察視線と前記視認視線の両視線にっ 、て特定面との交点を求め、両交点間の距 離が所定の範囲内に納まるように前記提示情報の提示法を決定する。
[0013] これによつて、所定の範囲を小さな距離とすることで視線移動の負荷が軽減され、 より安全性を確保しながらユーザに提示情報を視認させることができる。また、観察視 線または視認視線を精密に推定できな!、場合や、提示情報の提示法を詳細に制御 できない場合も、ある程度提示法を改善することができるという効果もある。さらに、前 記観察視線と前記視認視線との差異を 0としな 、ことによって、提示情報がユーザ周 辺の外界に完全に重なって外界の認識を阻害することを避けることができるという効 果もある。
[0014] ここで、前記視認視線推定手段は、前記提示情報を複数個の部分に分割し、前記 提示法決定手段は、分割された部分ごとに提示法を決定してもよい。これによつて、 テキスト情報に限らず、写真などの静止画や、テレビ番組などの映像を、道を歩きな 力 でも安心して視認できるようになる。
[0015] また、前記状況情報取得手段は、ユーザの進路上に存在する物体に関する物体 情報を取得し、前記提示法決定手段は、前記物体にユーザの視線が向くように前記 提示情報を配置してもよい。これによつて、注目すべき物体にユーザの視線が向くよ うになるので、よりユーザの安全性を確保することが可能となる。
[0016] あるいは、前記状況情報取得手段は、ユーザの進路上に存在する物体に関する物 体情報を取得し、前記提示法決定手段は、前記物体にユーザの視線が向かないよう に前記提示情報を配置してもよい。これによつて、凝視すべきでない物体にユーザの 視線が向力ないようになるので、よりユーザの安全性を確保することが可能となる。 [0017] ここで、前記観察視線推定手段は、発生する可能性があるユーザの状況別に、そ の状況に適した前記観察視線を複数個推定してもよい。これによつて、ユーザの行 動パターンや好みに応じた視線を観察視線として選択することができるようになる。
[0018] 同様に、前記視認視線推定手段は、前記提示情報の構成部分別に、その部分を 視認するのに適した速度の前記視認視線を複数個推定してもよい。これによつて、重 要な部分はゆっくりと読ませ、逆に重要でない部分は速い速度で読ませることが可能 となる。また、ユーザ周辺の事象のうちユーザにとって重要な事象を視認する視線を 視認視線として選択すれば、ユーザは提示情報の視認につられて視線を移動するこ とになるので、重要な事象に気づけるようになる。
[0019] また、前記状況情報取得手段は、ユーザの進路に関する情報を取得し、前記提示 法決定手段は、ユーザが交差点に差し力かった場合は、ユーザが交差点を左右確 認することになる位置に前記提示情報を配置してもよい。これによつて、交差点に差 し力かったユーザに左右確認をさせることができるので、よりユーザの安全性を高め ることが可能となる。
[0020] なお、本発明は、このような情報提示装置として実現することができるだけでなぐこ のような情報提示装置が備える特徴的な手段をステップとする情報提示方法として実 現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりす ることもできる。そして、そのようなプログラムは、 CD—ROM等の記録媒体やインタ 一ネット等の伝送媒体を介して配信することができるのは言うまでもない。 発明の効果
[0021] 以上の説明から明らかなように、本発明に係る情報提示装置によれば、視線移動 の負荷が軽減され、より安全性を確保しながらユーザに提示情報を視認させることが できる。
図面の簡単な説明
[0022] [図 1]図 1は、本発明に係る HMDをユーザが装着している状態を示す図である。
[図 2]図 2は、本発明に係る HMDの要部の機能ブロック図である。
[図 3]図 3は、本発明に係る HMDが地図情報を取得する様子を示す図である。
[図 4]図 4は、本発明に係る HMDをユーザが装着している状態を示す図である。 [図 5]図 5は、本発明に係る HMDの動作を示すフローチャートである。
[図 6]図 6は、ユーザの歩行進路を示す図である。
[図 7]図 7は、電子メールの内容を示す図である。
[図 8]図 8は、ユーザから見える状態を示す図である。
圆 9]図 9 (A)及び図 9 (B)は、観察視線推定基準記憶部に記憶されている基準情報 の一例を示す図である。
圆 10]図 10は、観察視線を推定する方法を示す図である。
圆 11]図 11 (A)及び図 11 (B)は、視認視線推定基準記憶部に記憶されている基準 情報の一例を示す図である。
圆 12]図 12は、視認視線を推定する方法を示す図である。
圆 13]図 13は、観察視線と視認視線との差異を示す図である。
圆 14]図 14 (A)、図 14 (B)、及び図 14 (C)は、観察視線と視認視線との差異を示す 図である。
[図 15]図 15は、提示法記憶部に記憶されている提示法情報の一例を示す図である。
[図 16]図 16は、提示法の一例を示す図である。
図 17]図 17は、 0秒後こュ -ザから見える状態を示す図である。
:図 18]図 18は、 2秒後こュ -ザから見える状態を示す図である。
:図 19]図 19は、 4秒後こュ -ザから見える状態を示す図である。
図 20]図 20は、 7秒後こュ -ザから見える状態を示す図である。
:図 21]図 21は、 0秒後こュ -ザから見える状態を示す図である。
:図 22]図 22は、 2秒後こュ -ザから見える状態を示す図である。
:図 23]図 23は、 4秒後こュ -ザから見える状態を示す図である。
:図 24]図 24は、 7秒後こュ -ザから見える状態を示す図である。
図 25]図 25は、 0秒後こュ -ザから見える状態を示す図である。
図 26]図 26は、 2秒後こュ -ザから見える状態を示す図である。
図 27]図 27は、 4秒後こュ -ザから見える状態を示す図である。
図 28]図 28は、 7秒後こュ -ザから見える状態を示す図である。
図 29]図 29は、 0秒後こュ -ザから見える状態を示す図である。 [図 30]図 30は、 2秒後にユーザから見える状態を示す図である。
[図 31]図 31は、 4秒後にユーザから見える状態を示す図である。
[図 32]図 32は、 7秒後にユーザから見える状態を示す図である。
[図 33]図 33は、歩行中のユーザが交差点を直進する状況を示す図である。
[図 34]図 34は、交差点を直進するユーザの歩行進路を示す図である。
[図 35]図 35は、交差点を直進するユーザ力も見える状態を示す図である。
[図 36]図 36は、直進歩行中のユーザが注目物体に接近している場合の提示例であ る。
[図 37]図 37は、直進歩行中のユーザが凝視回避物体に接近している場合の提示例 である。
符号の説明
1 ユーザの頭部
11 計算機
12 表示装置 (LCD)
13 光学素子
14 ヘッドホン
15 装着部材
16 受信機
17 ケーブル
18 格納部
101 状況情報取得部
102 観察視線推定部
103 提示情報取得部
104 視認視線推定部
105 提示法決定部
106 情報提示部
発明を実施するための最良の形態
以下、本発明の実施の形態について図面を用いて詳細に説明する。以下では、本 発明に係る情報提示装置として HMDを例示する。
[0025] (実施の形態 1)
図 1は、本発明に係る HMD100をユーザが装着して 、る状態を示す図である。
[0026] この図に示すように、本発明に係る HMD100は、外観においては従来の HMDと 同様であり、ユーザに情報を提示するための各種制御をする計算機 11と、 LCD (Liq uid Crystal Display)等の表示装置 12と、ユーザの眼前に配置される光学素子 (提示 幕) 13と、音声案内用のヘッドホン 14と、当該 HMDをユーザの頭部 1に装着するた めの装着部材 15と、インターネット等力 提示情報を受信するための受信機 16とを 備える。
[0027] 光学素子 13の一方の面は凹面の非球面であり、その上にハーフミラー膜が塗布さ れて、表示装置 12に表示された情報を反射して虚像を形成する。また、光学素子 13 の他方の面は凹面とほとんど同じ非球面の凸面で外界を観察できるようになつている ため、ユーザは、外界とオーバラップして表示装置 12に表示された情報を視認する ことになる。
[0028] 図 2は、本発明に係る HMD100の要部の機能ブロック図である。この HMD100は 、ユーザに情報を提示する装置であって、機能的には、状況情報取得部 101と、観 察視線推定部 102と、提示情報管理部 103と、視認視線推定部 104と、提示法決定 部 105と、情報提示部 106と、観察視線推定基準記憶部 107と、視認視線推定基準 記憶部 108と、提示法記憶部 109とを備える。
[0029] 状況情報取得部 101は、ユーザの状況に関する状況情報を取得するカメラ、 GPS
(Global Positioning System)、加速度センサ、傾きセンサ、磁気センサ等である。状 況情報は、ユーザの現在位置、地図情報、ユーザの移動の向きや速さ、ユーザの身 体状態 (頭や眼球など体の各部の位置、向き、姿勢、心拍数、体温など)に関する情 報である。過去の行動履歴をとるようにし、また、将来の行動予定(目的地など)を予 め設定するようにすれば、これら情報を状況情報として利用することもできる。
[0030] 図 3は、本発明に係る HMD100が地図情報を取得する様子を示す図である。すな わち、 HMD100の状況情報取得部 101は、ユーザの自宅に設置されている端末 30 0、ユーザが所有する携帯電話 400、地図配信サービスを提供するサーノ ¾00等か ら、インターネット 200を介して地図情報を取得する。インターネット 200を介すことな ぐ直接これらの装置から地図情報を取得することも可能である。
[0031] 観察視線推定部 102は、状況情報取得部 101によって取得された状況情報に基 づいて、外界を観察するユーザの観察視線を推定する。例えば、状況情報取得部 1 01によって進路情報が取得されると、この進路に応じた観察視線を推定する。進路 情報とは、ユーザの進路に関する情報であり、具体的には、 GPSによって取得された ユーザの現在位置、地図情報、予め設定されている行動予定(目的地)等である。
[0032] 提示情報取得部 103は、ユーザに提示する提示情報を取得する通信 IZF等であ る。提示情報は、電子メールのようなテキストや、テレビ番組のような映像などである。 これら提示情報は、図 1に示した受信機 16によってインターネット等力も受信すること ができる。あるいは、図 4に示すように、提示情報を予め格納した格納部 18からケー ブル 17を介して計算機 11に提示情報が送られる構成を採用することもできる。この 格納部 18は例えばパーソナルコンピュータでもよぐまた、このパーソナルコンビユー タは LAN (Local Area Network)やインターネット等に接続されていてもよい。
[0033] 視認視線推定部 104は、提示情報取得部 103によって取得された提示情報を視 認するユーザの視認視線を推定する。例えば、提示情報の属性や HMD100の属性 を考慮して、単位時間(例えば 1秒間)にユーザによって視認される文字数を決定し、 この文字数に基づ 、て、提示情報を視認するユーザの視認視線を推定する。
[0034] 提示法決定部 105は、観察視線推定部 102によって推定された観察視線と視認視 線推定部 104によって推定された視認視線とに基づ!/、て、提示情報取得部 103によ つて取得された提示情報の提示法を決定する。具体的には、観察視線と視認視線と の差異が所定の範囲内に納まるように提示情報の提示法を決定する。
[0035] 情報提示部 106は、提示情報取得部 103によって取得された提示情報を提示法 決定部 105によって決定された提示法によってユーザに提示する。具体的な提示態 様については、図面を用いて後で詳しく説明する。
[0036] 観察視線推定基準記憶部 107は、観察視線を推定する際の基準を示す情報を記 憶している。視認視線推定基準記憶部 108は、視認視線を推定する際の基準を示 す情報を記憶している。提示法記憶部 109は、提示情報の提示法を示す情報を記 憶して!/、る。これら記憶部に記憶されて 、る情報の具体例につ 、ては後述する。
[0037] 以下、図 5を用いて、 HMD100の動作について説明する。
[0038] ここでは、ユーザは、 HMD100を装着している状態で、図 6に示すように、交差点 のない直線の道路を直進歩行しているものと仮定する。そして、その歩行途中、図 7 に示すように、「差出人」「タイトル」「本文」からなる電子メール Aを受信したものと仮定 する。
[0039] 従来の HMDによれば、図 8に示すように、歩行中の道路が手前から奥へと映って おり、この道路手前にオーバラップして、受信した電子メール Aの内容が提示される ことになる。このような提示法によれば、ユーザの視線が画面下方に集中することに なり、安心して情報を視聴できないので、本発明に係る HMD100では、以下の手法 を採用している。
[0040] まず、状況情報取得部 101は、歩行中のユーザの状況を状況情報として取得する
(5201)。ここでいう状況情報は、例えば進路情報である。前記したように、ユーザの 現在位置は GPSによって取得することができ、進路情報は予め地図上に設定された 目的地力 算出することができる。予め地図上に目的地を設定しなくても、過去に歩 行したと 、う行動履歴がある場合は、この行動履歴を用いて進路情報を予測すること ちでさる。
[0041] このように状況情報が取得されると、観察視線推定部 102は、観察視線推定基準 記憶部 107に記憶されている基準情報を参照し、ユーザの観察視線を推定する。
[0042] 図 9 (A)は、観察視線推定基準記憶部 107に記憶されている基準情報の一例を示 す図である。ここでは、ユーザの状況別に、観察視線を推定する際の基準が対応付 けられている。具体的には、ユーザの状況力 ^等速直線運動」であることと、観察視線 力 S「等速直線運動」であることとが対応付けられている。また、ユーザの状況が「交差 点直進」であることと、観察視線が「左右確認」であることとが対応付けられて ヽる。
[0043] そこで、観察視線推定部 102は、ユーザが直線状の道路を直進していることから、 ユーザの観察視線も歩行に合わせて道路の手前から奥へと移動していくと推定する
(5202)。具体的には、図 10に示すように、 0秒後の視点位置は RO点、 2秒後の視 点位置は R2点、 4秒後の視点位置は R4点、 7秒後の視点位置は R7点であると推定 する。
[0044] 一方、提示情報取得部 103は、電子メールを受信すると(S203)、この電子メール を提示情報として管理する。このように提示情報が提示情報取得部 103の管理下に おかれると、視認視線推定部 104は、視認視線推定基準記憶部 108に記憶されて いる基準情報を参照し、電子メールを視認するユーザの視認視線を推定する(S204
) o
[0045] 図 11 (A)は、視認視線推定基準記憶部 108に記憶されている基準情報の一例を 示す図である。ここでは、提示情報の種別ごとに、視認視線を推定する際の基準が 対応付けられている。具体的には、提示情報が「電子メール」であることと、視認速度 が「5文字 Z秒」であることとが対応付けられている。また、提示情報が「テレビ番組」 であることと、視認速度が「1シーン Z秒」であることとが対応付けられている。
[0046] 図 12は、電子メールを視認するユーザの視点移動を示す図である。電子メールは 横書きで提示されて 、るので、この電子メールを視認するユーザの視点は 1行目から 順に左力 右へ移動すると推定することができる。ここでは、 0秒後の視点位置は V0 点、 2秒後の視点位置は V2点、 4秒後の視点位置は V4点、 7秒後の視点位置は V7 点であると推定している。すなわち、文字を読む速度は一定である(ここでは、 5文字 Z秒である)として、将来読んでいる文字を特定し、その文字が提示されている位置 を視点位置として推定して 、る。
[0047] このように観察視線と視認視線とが推定されると、提示法決定部 105は、両視線の 差異を求める(S205)。すなわち、図 13に示すように、 0秒後における両視線の差異 は矢印 DOとして、 2秒後における両視線の差異は矢印 D2として、 4秒後における両視 線の差異は矢印 D4として、 7秒後における両視線の差異は矢印 D7として、それぞれ 表すことができる。
[0048] 両視線の差異の求め方について、図 14を用いて、更に詳しく説明する。まず、図 1 4 (A)に示すように、観察視線と光学素子 13との交点 P1を求める。次に、図 14 (B) に示すように、視聴視線と光学素子 13との交点 P2を求める。最後に、図 14 (C)に示 すように、交点 P1と交点 P2間の距離 L1を求める。この距離 L1が例えば矢印 DOの大 きさということになる。 [0049] 次いで、提示法決定部 105は、このように求めた差異が所定の範囲内であるかどう かを判定する(S206)。例えば、矢印 D0、 D2、 D4、 D7の大きさが光学素子 13上で 2 mm以下であるかどうかを判定する。そして、矢印 D0、 D2、 D4、 D7の大きさが全て光 学素子 13上で 2mm以下である場合は、電子メールの提示法を変更しない(S206→ S208)。一方、矢印 D0、 D2、 D4、 D7いずれかの大きさが光学素子 13上で 2mmを超 える場合は、電子メールの提示法を変更する(S206→S207)。
[0050] 図 15は、提示法記憶部 109に記憶されている提示法情報の一例を示す図である。
ここでは、提示情報の種別ごとに、提示法の種別が対応付けられている。具体的に は、提示情報が「電子メール」であることと、提示法が「投影提示法」であることとが対 応付けられている。また、提示情報が「テレビ番組」であることと、提示法が「部分提示 法」であることとが対応付けられている。投影提示法は、ユーザの進路に沿って投影 的に提示情報を配置する提示法である。また、部分提示法は、ユーザの進路に沿つ て提示情報の構成部分を時系列順に配置する提示法である。ここでは、提示情報は 電子メールであるため、提示法決定部 105は、電子メールの提示法を図 13に示した 提示法から投影提示法に変更する。
[0051] 図 16は、電子メールの提示法の変更例を示す図である。この図に示すように、提示 法決定部 105は、矢印 D0、 D2、 D4、 D7の大きさが全て光学素子 13上で 2mm以下と なるように、電子メールの提示法を変更している。図 13に示した提示法と比較して、 図 16に示した投影提示法では、 RO点と VO点、 R2点と V2点、 R4点と V4点、 R7点と V7点がそれぞれ接近して 、ることがわかる。
[0052] このように電子メールの提示法が決定されると、情報提示部 106は、投影提示法に よって電子メールを提示する(S208)。すなわち、図 17は、 0秒後にユーザから見え る状態を示しており、この状態では、「差出人」の文字が手前に映っている。図 18は、 2秒後にユーザ力 見える状態を示しており、この状態では、「タイトル」の文字が手 前に映っている。図 19は、 4秒後にユーザ力 見える状態を示しており、この状態で は、「本文」の文字が手前に映っている。図 20は、 7秒後にユーザから見える状態を 示しており、この状態では、「本文」の続きが手前に映っている。このように、本提示法 によると、あた力も電子メールの内容が道路に描かれているかのように視認されること になる。
[0053] 前述したように、 HMDIOOは、状況情報に基づいて観察視線を推定するとともに、 提示情報に基づいて視認視線を推定する。そして、このように推定した両視線と光学 素子 13との交点 P1及び P2を求め、この交点 P1と交点 P2間の距離 L1が 2mmを超 える場合は、この距離 L2が 2mm以下となるように、電子メールの提示法を変更する
[0054] 以上の説明から明らかなように、本発明に係る情報提示装置によれば、ユーザにと つて安全な方向に視線が向くように提示情報を配置することができる。具体的には、 観察視線と視認視線との差異を求め、この差異が小さな距離となるように提示情報の 提示法を決定しているので、視線移動の負荷が軽減され、より安全性を確保しながら ユーザに提示情報を視認させることができる。
[0055] なお、電子メールの提示法は前記した投影提示法に限定されるものではない。例 えば、電子メールの内容を複数個の構成部分に分割して、各構成部分を時系列順 にユーザの進路に沿って提示するようにしてもよい。すなわち、提示態様についてだ け説明すると、図 21は 0秒後に、図 22は 2秒後に、図 23は 4秒後に、図 24は 7秒後 に、それぞれユーザ力も見える状態を示している。あるいは、電子メールを縦書きで ユーザの進路に沿って上方に提示するようにしてもよい。すなわち、図 25は 0秒後に 、図 26は 2秒後に、図 27は 4秒後〖こ、図 28は 7秒後に、それぞれユーザから見える 状態を示している。
[0056] また、提示情報は電子メールに限定されるものではな 、。テレビ番組の映像をシー ン毎に分割して、各シーン映像を時系列順にユーザの進路に沿って提示するように してもよい。すなわち、図 29は 0秒後に、図 30は 2秒後に、図 31は 4秒後に、図 32は 7秒後に、それぞれユーザ力も見える状態を示して!/、る。
[0057] もちろん、提示情報がもともと複数の構成部分カゝらなる場合は、提示情報を複数個 の構成部分に分割する必要はない。例えば、テレビ番組の映像はもともと複数のシ ーンから構成されるので、この場合は、テレビ番組の映像を分割する処理を省略する ことができる。電子メールも「差出人」「タイトル」「本文」という単位でもともと分割されて いると考えれば、テレビ番組の映像と同様、分割する処理を省略することができる。 [0058] さらに、図 5の S201と S203の動作はどちらが先に行われてもよい。すなわち、 S202 の動作までに S201の動作が完了していればよぐ S204の動作までに S203の動作が 完了していればよい。同様に、 S202の動作と S204の動作は、どちらが先に行われ てもよい。すなわち、 S205の動作までに S202と S204の動作力完了していればよい 。もちろん、図 5に示した各動作は、即時に次々と行われてもよいし、並行して行われ てもよいし、時間をおいて行われてもよい。
[0059] さらに、図 5の S202や S204で推定する視線は 1通りでなくてもよい。すなわち、複 数の視線候補を推定してもよ!、し、この視線候補それぞれの実現確率を推定しても よい。
[0060] 図 9 (B)は、観察視線推定基準記憶部 107に記憶されている基準情報の別の例を 示す図である。ここでは、交差点に差し掛カつた直後のユーザの状況別に、その状 況が発生する確率と、その状況に適した観察視線とが対応付けられている。具体的 には、直進する確率は 80%であり、その場合は「右」「左」「前」の順に観察視線を遷 移させる旨が規定されている。また、右折する確率は 20%であり、その場合は「右」「 左」「右」の順に観察視線を遷移させる旨が規定されている。また、左折する確率は 0 %であり、その場合は「左」「右」「左」の順に観察視線を遷移させる旨が規定されてい る。また、引き返す確率は 0%であり、その場合は観察視線を 180度回転させる旨が 規定されている。
[0061] そこで、観察視線推定部 102は、歩行中のユーザが交差点に差し掛カつた際、直 進する確率が 80パーセントで右折する確率が 20パーセントであるとして、 2つの観察 視線を推定してもよい。この場合は、直進する確率が最も高いので、直進に適した観 察視線を選択するのが好ましい。ただし、ユーザが直進せずに右折した場合は、予 め推定してぉ 、た右折に適した観察視線に変更するのが好ま 、。
[0062] 同様に、電子メールの内容には重要な部分と重要でない部分とが存在するので、 電子メールの構成部分ごとに複数の視認視線候補を推定するようにしてもょ 、。
[0063] 図 11 (B)は、視認視線推定基準記憶部 108に記憶されている基準情報の別の例 を示す図である。ここでは、電子メールの内容の重要度別に、その部分を読むのに 適した視認速度が規定されている。具体的には、最も高い重要度 Aの部分は「3文字 Z秒」、 2番目に高 、重要度 Bの部分は「4文字 Z秒」、 3番目に高 、重要度 Cの部分 は「5文字 Z秒」、 4番目に高 、重要度 Dの部分は「6文字 Z秒」、 5番目に高 、重要 度 Eの部分は「7文字 Z秒」の視認速度とする旨が規定されて 、る。
[0064] そこで、視認視線推定部 104は、電子メールの構成部分ごとに重要度 A〜Eを決定 し、決定した重要度に対応する速度でその部分が読まれたときの視認視線を推定す る。これにより、重要な部分はゆっくりと読ませ、逆に重要でない部分は速い速度で 読ませることが可能となる。
[0065] さらに、ここでは、矢印 D0、 D2、 D4、 D7の大きさが光学素子 13上で 2mm以下であ るかどうかを判定することとしている力 本発明はこれに限定されるものではない。す なわち、両視線の角度差が例えば 1度以内であるかどうかを判定するようにしてもよ いし、あるいは、提示情報と重なる道路上の距離が例えば 50cm以内であるかどうか を判定するようにしてもよい。両視線の差異が 0の場合は、提示情報が重要な光景を 隠してしまうこともあるので、例えば両視線の差異を 5mmから 2mmの間とする等、差 異 0を範囲外としてもよい。
[0066] (実施の形態 2)
次に、本発明の実施の形態 2について説明する。
[0067] 実施の形態 1では、交差点のない直線の道路をユーザが直進歩行している場面を 想定していたので、ユーザの歩行進路と観察視線とはほぼ一致していた。本実施の 形態では、ユーザの歩行進路と観察視線とがー致しない場面について説明する。
[0068] 図 33は、歩行中のユーザが交差点を直進する状況を示す図である。道路を直進 する場合は、歩行進路と観察視線がほぼ一致していたが、交差点を直進する場合は 、ユーザに交差点の左右確認をさせるために観察視線を左右に移動させるのが好ま しい。
[0069] すなわち、このような場合は、図 34に示すように、観察視線が進路前方から「右」「 左」「右」へと移動した後、再び進路前方に戻るものと推定し、それに合わせて電子メ ールを配置するようにしている。図 35は、このように電子メールを配置した場合に、ュ 一ザから見える光景を示している。電子メールを順に読むと、交差点において自然と 視線が「右」「左」「右」へと移動して、左右確認ができるようになつている。 [0070] 以上の説明から明らかなように、本実施の形態に係る情報提示装置によれば、交 差点を直進するユーザに左右確認をさせることができるので、よりユーザの安全性を 高めることが可能となる。その他の点については、前記実施の形態 1と同様であるた め、ここでは詳しい説明を省略する。
[0071] (実施の形態 3)
次に、本発明の実施の形態 3について説明する。
[0072] 前記実施の形態 1では、ユーザの進路に沿って提示情報を一様に配置する構成を 例示したが、本実施の形態では、視線に影響を与える物体に応じて、提示情報の位 置や間隔や分布を偏らせて配置する。すなわち、ユーザの進路上に存在する物体に 関する物体情報を状況情報取得部 101が取得し、このように取得された物体情報に 基づいて、提示法決定部 105が提示情報の提示法を決定する。
[0073] 図 36は、直進歩行中のユーザが注目物体に接近している場合の提示例である。こ こでいう注目物体は、例えば自転車などであり、ユーザが注目すべき物体である。こ のように注目物体に接近している場合は、図 36に示すように、その注目物体付近に 視線が向くように提示情報を配置するのが好ましい。ここでは、注目物体を挟む位置 に電子メールの「タイトル」と「本文」を配置することで、「タイトル」を読んでから「本文」 を読むまでの間に、ユーザが注目物体に気づきやすくしている。
[0074] 図 37は、直進歩行中のユーザが凝視回避物体に接近している場合の提示例であ る。ここでいう凝視回避物体は、例えば見知らぬ人などであり、過度に凝視すべきで ない物体である。このように凝視回避物体に接近している場合は、図 37に示すように 、その凝視回避物体付近における情報配置の密度を低くすることで、凝視回避物体 に長時間視線が向かないようにしている。なお、ユーザの進路上に存在する物体が 注目物体であるか凝視回避物体であるかは、前方の光景を撮影して、その撮影画像 を解析することによって判別可能である。
[0075] 以上の説明から明らかなように、本実施の形態に係る情報提示装置によれば、視 線に影響を与える物体に応じて、提示情報の位置や間隔や分布を偏らせて配置す ることができるので、よりユーザの安全性を高めることが可能となる。その他の点につ いては、前記実施の形態 1と同様であるため、ここでは詳しい説明を省略する。 [0076] なお、図 2における各部は、一台のコンピュータ上にあってもよいし、一台のコンビュ ータ上になくてもよい。例えば、提示法決定部 105と情報提示部 106とが別の機器に あってもよいし、提示情報取得部 103がインターネット上のサーバ機器でもよい。また 、複数のコンピュータ上に各部が分散していてもよいし、図 2における各部(例えば情 報提示部 106)がー台のコンピュータ上に複数存在してもよい。複数ユーザで図 2の 各部を共有してもよ ヽのはもちろんである。
[0077] また、ここでは透過型の HMDを例示した力 本発明は、これに限定されるものでは ない。すなわち、カメラ等によって撮影された外界の画像を仮想画像と重畳させて LC D等の表示装置に表示する密閉型の HMDにも、本発明を適用することができる。ま た、情報提示部 106は、ヘッドマウントディスプレイ、フェイスマウントディスプレイ、眼 鏡型ディスプレイ、透過型ディスプレイ、網膜走査型ディスプレイ、携帯電話や携帯 テレビゃモパイル端末の情報提示部、プロジェクターなどを含んでもよい。もちろん、 HMDだけでなぐ図 2に示した各部を備えた装置である以上、本発明を適用するこ とがでさる。
[0078] さらに、視線の推定方法は様々あり、前述した方法に限定されるものではない。例 えば、カメラで撮影した眼球の映像から目の特徴点(白目と黒目の境界など)を抽出 することで視線を推定してもよい。あるいは、コンタクトレンズや眼球表面に印などの 識別情報を付加しておき、その位置を認識することで視線を推定してもよい。あるい は、眼球付近の電気抵抗や、電流'電圧などの電気的特性の変化を計測することで 視線を推定してもよい。あるいは、例えば「頭部が左を向いたので視点も左に移動す る」などのように、体や頭部の移動に伴って視線が移動すると!、う人間の身体的制約 を用いて視線を推定してもよい。あるいは、交差点では左右確認するといつた一般知 識ゃ、このユーザは子猫に興味を示すといった個人的嗜好を考慮することで、ユー ザ周辺の状況や物体に対するユーザの関心の強さを予測して、関心の強い物体を 注目するという観点力 視線を推定してもよい。なお、視線の推定対象である目は、 左右 、ずれか一方の目でもよ!/、し、左右両方の目でもよ 、。また、ここでは視線を推 定することとしているが、視点や注目点を推定することも、視線を推定することと実質 的には同じである。もちろん、推定する視線の先は、点でなく領域でもよい。例えば、 「2秒後は左側を見て 、る」などのように、領域で視線を推定してもよ!/、。
[0079] さらに、ここでは提示情報の提示位置を変更することとしている力 提示する色調、 明るさ、透明度、大きさ、向き、奥行き等のいずれ力を変更するようにしてもよいし、あ るいは、提示情報の再生状態 (再生の一時停止、再開、中断、早送り、巻戻し、スロ 一再生、要約再生、部分再生など)を変更するようにしてもよい。また、提示法の変更 は断続的でもよい。例えば、提示位置を変更する場合は、一旦提示を中止した後、 前と異なる位置に再提示してもよ ヽ。
[0080] さらに、ここでは、提示情報として電子メールとテレビ番組とを例示した力 提示情 報には、テレビ番組のような映像、電子メールのようなテキスト、静止画、信号などの 少なくとも 1つを含めばよい。また、提示情報を管理する方法については特に言及し なかったが、この方法としては、提示情報取得部 103自体が提示情報自体の全部や 一部を保有する方法を採用してもよいし、提示情報を取得できるように提示情報の位 置を保有する方法を採用してもよいし、提示情報の位置を保有している別の提示情 報取得部の位置を保有する方法を採用してもよい。
[0081] また、ここでは、観察視線と視認視線との差異が所定の範囲内に納まるように提示 情報の提示法を決定することとしているが、本発明はこれに限定されるものではない 。すなわち、視認視線あるいは観察視線の一方が他方に先行するように提示法を決 定するようにしてもよいし、観察視線の動きに応じて情報提示を停止したり、ユーザの 行動を変更させたりするように、提示法を決定するようにしてもょ 、。
産業上の利用可能性
[0082] 本発明にかかる情報提示装置は、ユーザに情報を提示する情報提示装置として、 特に、より安全性を確保しながらユーザに提示情報を視認させることが必要な HMD 等として有用である。

Claims

請求の範囲
[1] ユーザに情報を提示する情報提示装置であって、
ユーザの状況に関する状況情報を取得する状況情報取得手段と、
前記状況情報取得手段によって取得された状況情報に基づ 、て、外界を観察する ユーザの観察視線を推定する観察視線推定手段と、
ユーザに提示する提示情報を取得する提示情報取得手段と、
前記提示情報取得手段によって取得された提示情報を視認するユーザの視認視 線を推定する視認視線推定手段と、
前記観察視線推定手段によって推定された観察視線と前記視認視線推定手段に よって推定された視認視線とに基づいて、前記提示情報取得手段によって取得され た提示情報の提示法を決定する提示法決定手段と、
前記提示情報取得手段によって取得された提示情報を前記提示法決定手段によ つて決定された提示法によってユーザに提示する情報提示手段と
を備えることを特徴とする情報提示装置。
[2] 前記提示法決定手段は、ユーザにとって安全な方向に視線が向くように前記提示 情報を配置する
ことを特徴とする請求項 1記載の情報提示装置。
[3] 前記状況情報取得手段は、ユーザの進路に関する情報を取得し、
前記提示法決定手段は、ユーザの進路に沿って投影的に前記提示情報を配置す る
ことを特徴とする請求項 1記載の情報提示装置。
[4] 前記状況情報取得手段は、ユーザの進路に関する情報を取得し、
前記提示法決定手段は、ユーザの進路に沿って前記提示情報の構成部分を時系 列順に配置する
ことを特徴とする請求項 1記載の情報提示装置。
[5] 前記状況情報取得手段は、ユーザの進路に関する情報を取得し、
前記提示法決定手段は、ユーザが交差点に差しかかった場合は、ユーザが交差 点を左右確認することになる位置に前記提示情報を配置する ことを特徴とする請求項 1記載の情報提示装置。
[6] 前記提示法決定手段は、前記観察視線と前記視認視線との差異が所定の範囲内 に納まるように前記提示情報の提示法を決定する
ことを特徴とする請求項 1記載の情報提示装置。
[7] 前記観察視線推定手段は、外界を観察するユーザの視点位置を単位時間別に推 定し、
前記視認視線推定手段は、前記提示情報を視認するユーザの視点位置を単位時 間別に推定し、
前記提示法決定手段は、単位時間別に、前記観察視線と前記視認視線の両視線 につ 、て特定面との交点を求め、両交点間の距離が所定の範囲内に納まるように前 記提示情報の提示法を決定する
ことを特徴とする請求項 1記載の情報提示装置。
[8] 前記視認視線推定手段は、前記提示情報を複数個の部分に分割し、
前記提示法決定手段は、分割された部分ごとに提示法を決定する
ことを特徴とする請求項 1記載の情報提示装置。
[9] 前記状況情報取得手段は、ユーザの進路上に存在する物体に関する物体情報を 取得し、
前記提示法決定手段は、前記物体にユーザの視線が向くように前記提示情報を配 置する
ことを特徴とする請求項 1記載の情報提示装置。
[10] 前記状況情報取得手段は、ユーザの進路上に存在する物体に関する物体情報を 取得し、
前記提示法決定手段は、前記物体にユーザの視線が向かないように前記提示情 報を配置する
ことを特徴とする請求項 1記載の情報提示装置。
[11] 前記情報提示手段は、透過型の提示幕上に前記提示情報を提示する
ことを特徴とする請求項 1記載の情報提示装置。
[12] 前記情報提示装置はさらに、 外界を観察するユーザの視線を検出するセンサを備え、
前記観察視線推定手段は、検出された視線を前記観察視線として採用する ことを特徴とする請求項 1記載の情報提示装置。
[13] 前記観察視線推定手段は、発生する可能性があるユーザの状況別に、その状況 に適した前記観察視線を複数個推定する
ことを特徴とする請求項 1記載の情報提示装置。
[14] 前記視認視線推定手段は、前記提示情報の構成部分別に、その部分を視認する のに適した速度の前記視認視線を複数個推定する
ことを特徴とする請求項 1記載の情報提示装置。
[15] ユーザに情報を提示する情報提示方法であって、
ユーザの状況に関する状況情報を取得する状況情報取得ステップと、 前記状況情報取得ステップにお!、て取得された状況情報に基づ!、て、外界を観察 するユーザの観察視線を推定する観察視線推定ステップと、
ユーザに提示する提示情報を取得する提示情報取得ステップと、
前記提示情報取得ステップにおいて取得された提示情報を視認するユーザの視 認視線を推定する視認視線推定ステップと、
前記観察視線推定ステップにおいて推定された観察視線と前記視認視線推定ステ ップにお 1、て推定された視認視線とに基づ 、て、前記提示情報取得ステップにお!ヽ て取得された提示情報の提示法を決定する提示法決定ステップと、
前記提示情報取得ステップにおいて取得された提示情報を前記提示法決定ステツ プにおいて決定された提示法によってユーザに提示する情報提示ステップと を含むことを特徴とする情報提示方法。
[16] ユーザに情報を提示するためのプログラムであって、
ユーザの状況に関する状況情報を取得する状況情報取得ステップと、 前記状況情報取得ステップにお!、て取得された状況情報に基づ!、て、外界を観察 するユーザの観察視線を推定する観察視線推定ステップと、
ユーザに提示する提示情報を取得する提示情報取得ステップと、
前記提示情報取得ステップにおいて取得された提示情報を視認するユーザの視 認視線を推定する視認視線推定ステップと、
前記観察視線推定ステップにおいて推定された観察視線と前記視認視線推定ステ ップにお 1、て推定された視認視線とに基づ 、て、前記提示情報取得ステップにお!ヽ て取得された提示情報の提示法を決定する提示法決定ステップと、
前記提示情報取得ステップにおいて取得された提示情報を前記提示法決定ステツ プにおいて決定された提示法によってユーザに提示する情報提示ステップと をコンピュータに実行させるためのプログラム。
ユーザに情報を提示するためのプログラムを記録したコンピュータ読み取り可能な 記録媒体であって、
ユーザの状況に関する状況情報を取得する状況情報取得ステップと、
前記状況情報取得ステップにお!、て取得された状況情報に基づ!、て、外界を観察 するユーザの観察視線を推定する観察視線推定ステップと、
ユーザに提示する提示情報を取得する提示情報取得ステップと、
前記提示情報取得ステップにおいて取得された提示情報を視認するユーザの視 認視線を推定する視認視線推定ステップと、
前記観察視線推定ステップにおいて推定された観察視線と前記視認視線推定ステ ップにお 1、て推定された視認視線とに基づ 、て、前記提示情報取得ステップにお!ヽ て取得された提示情報の提示法を決定する提示法決定ステップと、
前記提示情報取得ステップにおいて取得された提示情報を前記提示法決定ステツ プにおいて決定された提示法によってユーザに提示する情報提示ステップと をコンピュータに実行させるためのプログラムを記録した記録媒体。
PCT/JP2005/021823 2004-12-14 2005-11-28 情報提示装置及び情報提示方法 WO2006064655A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2005800430475A CN101080691B (zh) 2004-12-14 2005-11-28 信息提示装置及信息提示方法
JP2006548746A JP4268191B2 (ja) 2004-12-14 2005-11-28 情報提示装置、情報提示方法、プログラム、及び記録媒体
US11/792,224 US8327279B2 (en) 2004-12-14 2005-11-28 Information presentation device and information presentation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004361610 2004-12-14
JP2004-361610 2004-12-14

Publications (1)

Publication Number Publication Date
WO2006064655A1 true WO2006064655A1 (ja) 2006-06-22

Family

ID=36587714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/021823 WO2006064655A1 (ja) 2004-12-14 2005-11-28 情報提示装置及び情報提示方法

Country Status (4)

Country Link
US (1) US8327279B2 (ja)
JP (1) JP4268191B2 (ja)
CN (1) CN101080691B (ja)
WO (1) WO2006064655A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010071110A1 (ja) * 2008-12-16 2010-06-24 ブラザー工業株式会社 ヘッドマウントディスプレイ
WO2013111423A1 (ja) * 2012-01-23 2013-08-01 カルソニックカンセイ株式会社 車両用表示装置
JP2014093050A (ja) * 2012-11-06 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP2014201253A (ja) * 2013-04-08 2014-10-27 マツダ株式会社 車載情報表示装置
JP2014225727A (ja) * 2013-05-15 2014-12-04 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JPWO2013111388A1 (ja) * 2012-01-23 2015-05-11 三菱電機株式会社 情報表示装置
JPWO2015125626A1 (ja) * 2014-02-20 2017-03-30 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
US9947289B2 (en) 2014-07-29 2018-04-17 Samsung Electronics Co., Ltd. User interface apparatus and user interface method
US10782531B2 (en) 2017-12-14 2020-09-22 Seiko Epson Corporation Head-mounted type display device and method of controlling head-mounted type display device

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI339574B (en) * 2007-10-31 2011-04-01 Nat Applied Res Laboratories Color recognition device and method thereof
US8392853B2 (en) * 2009-07-17 2013-03-05 Wxanalyst, Ltd. Transparent interface used to independently manipulate and interrogate N-dimensional focus objects in virtual and real visualization systems
US9875719B2 (en) 2009-12-23 2018-01-23 Gearbox, Llc Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211739A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US9361729B2 (en) * 2010-06-17 2016-06-07 Microsoft Technology Licensing, Llc Techniques to present location information for social networks using augmented reality
US8681073B1 (en) * 2011-09-29 2014-03-25 Rockwell Collins, Inc. System for and method of controlling contrast or color contrast in see-through displays
US20130151722A1 (en) * 2011-12-13 2013-06-13 Motorola Mobility, Inc. Method and Apparatus for Utilizing Streaming Content at an Electronic Device
US8982014B2 (en) * 2012-02-06 2015-03-17 Battelle Memorial Institute Image generation systems and image generation methods
US9909878B2 (en) * 2012-03-05 2018-03-06 Here Global B.V. Method and apparatus for triggering conveyance of guidance information
JP6174435B2 (ja) * 2013-09-25 2017-08-02 富士通コンポーネント株式会社 コンバイナ及び操作検出装置
JP5825328B2 (ja) * 2013-11-07 2015-12-02 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
CN103838378B (zh) * 2014-03-13 2017-05-31 广东石油化工学院 一种基于瞳孔识别定位的头戴式眼睛操控系统
JP2015201100A (ja) * 2014-04-09 2015-11-12 富士通株式会社 既読判断装置、既読判断方法、及び既読判断プログラム
US9672747B2 (en) 2015-06-15 2017-06-06 WxOps, Inc. Common operating environment for aircraft operations
CN105035026A (zh) * 2015-09-02 2015-11-11 济源维恩科技开发有限公司 一种基于指纹身份识别的汽车行车电脑系统
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
CN105404394B (zh) * 2015-11-17 2019-02-12 Oppo广东移动通信有限公司 显示界面的显示控制方法及移动终端
JP2017097306A (ja) * 2015-11-27 2017-06-01 株式会社リコー ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイシステムにおける表示制御方法
CN107037592B (zh) * 2017-06-21 2019-06-14 常州快来信息科技有限公司 头戴显示设备的视觉优化系统、智能终端及头戴设备
CN109426419B (zh) * 2017-09-05 2022-06-03 菜鸟智能物流控股有限公司 界面显示方法及相关设备
JP7327320B2 (ja) * 2020-08-11 2023-08-16 トヨタ自動車株式会社 警告通知システム、警告通知方法及び警告通知プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0331033A (ja) * 1989-06-29 1991-02-08 Mazda Motor Corp 車両用表示装置
JPH07257228A (ja) * 1994-03-18 1995-10-09 Nissan Motor Co Ltd 車両用表示装置
JPH10320167A (ja) * 1997-05-15 1998-12-04 Sharp Corp 仮想空間ウインドウ表示システム
JP2004118418A (ja) * 2002-09-25 2004-04-15 Nissan Motor Co Ltd 移動体接近報知装置

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001242411A (ja) * 1999-05-10 2001-09-07 Asahi Glass Co Ltd ホログラム表示装置
US5293513A (en) * 1990-05-30 1994-03-08 Mitsubishi Denki Kabushiki Kaisha Switching system for automotive vehicle including a reflector positioned below a sight line of a driver
JP3031033B2 (ja) 1992-01-10 2000-04-10 新日本理化株式会社 トランス−1,4−シクロヘキサンジメタノールの製造方法
JP3744984B2 (ja) 1995-10-04 2006-02-15 キヤノン株式会社 情報表示装置
US6208933B1 (en) * 1998-12-04 2001-03-27 Northrop Grumman Corporation Cartographic overlay on sensor video
US6500008B1 (en) * 1999-03-15 2002-12-31 Information Decision Technologies, Llc Augmented reality-based firefighter training system and method
JP3368226B2 (ja) 1999-03-26 2003-01-20 キヤノン株式会社 情報処理方法及び情報処理装置
JP2002107161A (ja) * 2000-10-03 2002-04-10 Matsushita Electric Ind Co Ltd 移動体用進路誘導装置
JP4649050B2 (ja) * 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
US20040238732A1 (en) * 2001-10-19 2004-12-02 Andrei State Methods and systems for dynamic virtual convergence and head mountable display
US6675091B2 (en) * 2001-11-20 2004-01-06 Siemens Corporate Research, Inc. System and method for tracking, locating, and guiding within buildings
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
JP3922245B2 (ja) * 2003-11-20 2007-05-30 日産自動車株式会社 車両周辺監視装置および方法
US7796155B1 (en) * 2003-12-19 2010-09-14 Hrl Laboratories, Llc Method and apparatus for real-time group interactive augmented-reality area monitoring, suitable for enhancing the enjoyment of entertainment events
US6947219B1 (en) * 2004-06-02 2005-09-20 Universal Vision Biotechnology Co., Ltd. Focus adjustable head mounted display system for displaying digital contents and device for realizing the system
US20090040233A1 (en) * 2004-06-10 2009-02-12 Kakuya Yamamoto Wearable Type Information Presentation Device
JP2008508621A (ja) * 2004-08-03 2008-03-21 シルバーブルック リサーチ ピーティワイ リミテッド ウォークアップ印刷
JP4574473B2 (ja) * 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
US9193375B2 (en) * 2005-08-10 2015-11-24 Autoliv Asp, Inc. Steering apparatus
JP2007094935A (ja) * 2005-09-30 2007-04-12 Omron Corp 情報処理装置および情報処理方法、情報処理システム、プログラム、並びに、記録媒体
US20070194171A1 (en) * 2005-10-03 2007-08-23 Rocket Racing, Inc. Rocket-powered vehicle racing information system
JPWO2007072675A1 (ja) * 2005-12-20 2009-05-28 パナソニック株式会社 コンテンツ提示装置およびコンテンツ提示方法
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US7920071B2 (en) * 2006-05-26 2011-04-05 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method providing status and control of unmanned vehicles
WO2007145190A1 (ja) * 2006-06-12 2007-12-21 Panasonic Corporation ナビゲーション装置及びナビゲーション方法
KR20080050669A (ko) * 2006-12-04 2008-06-10 엘지전자 주식회사 차량용 헤드업 디스플레이 장치
US20080147325A1 (en) * 2006-12-18 2008-06-19 Maassel Paul W Method and system for providing augmented reality
US8390534B2 (en) * 2007-03-08 2013-03-05 Siemens Aktiengesellschaft Method and device for generating tracking configurations for augmented reality applications
EP1990674A1 (en) * 2007-05-09 2008-11-12 Harman Becker Automotive Systems GmbH Head-mounted display system
US8055296B1 (en) * 2007-11-06 2011-11-08 Sprint Communications Company L.P. Head-up display communication system and method
JP2009217682A (ja) * 2008-03-12 2009-09-24 Yazaki Corp 車両用表示装置
JP4702437B2 (ja) * 2008-11-25 2011-06-15 トヨタ自動車株式会社 車両用表示装置
US8732592B2 (en) * 2009-06-08 2014-05-20 Battelle Energy Alliance, Llc Methods and systems relating to an augmented virtuality environment
JP2011053468A (ja) * 2009-09-02 2011-03-17 Sony Corp 映像/文字同時表示装置及び頭部装着型ディスプレイ
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US20120011142A1 (en) * 2010-07-08 2012-01-12 Qualcomm Incorporated Feedback to improve object recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0331033A (ja) * 1989-06-29 1991-02-08 Mazda Motor Corp 車両用表示装置
JPH07257228A (ja) * 1994-03-18 1995-10-09 Nissan Motor Co Ltd 車両用表示装置
JPH10320167A (ja) * 1997-05-15 1998-12-04 Sharp Corp 仮想空間ウインドウ表示システム
JP2004118418A (ja) * 2002-09-25 2004-04-15 Nissan Motor Co Ltd 移動体接近報知装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145436A (ja) * 2008-12-16 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
WO2010071110A1 (ja) * 2008-12-16 2010-06-24 ブラザー工業株式会社 ヘッドマウントディスプレイ
WO2013111423A1 (ja) * 2012-01-23 2013-08-01 カルソニックカンセイ株式会社 車両用表示装置
JP2013147200A (ja) * 2012-01-23 2013-08-01 Calsonic Kansei Corp 車両用表示装置
JPWO2013111388A1 (ja) * 2012-01-23 2015-05-11 三菱電機株式会社 情報表示装置
US10228895B2 (en) 2012-11-06 2019-03-12 Sony Corporation Image display device, image display method, and computer program
JP2014093050A (ja) * 2012-11-06 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP2014201253A (ja) * 2013-04-08 2014-10-27 マツダ株式会社 車載情報表示装置
JP2014225727A (ja) * 2013-05-15 2014-12-04 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JPWO2015125626A1 (ja) * 2014-02-20 2017-03-30 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
US10324294B2 (en) 2014-02-20 2019-06-18 Sony Corporation Display control device, display control method, and computer program
US10437069B2 (en) 2014-02-20 2019-10-08 Sony Corporation Display control device, display control method, and computer program
US9947289B2 (en) 2014-07-29 2018-04-17 Samsung Electronics Co., Ltd. User interface apparatus and user interface method
US10665203B2 (en) 2014-07-29 2020-05-26 Samsung Electronics Co., Ltd. User interface apparatus and user interface method
US10782531B2 (en) 2017-12-14 2020-09-22 Seiko Epson Corporation Head-mounted type display device and method of controlling head-mounted type display device
US11668936B2 (en) 2017-12-14 2023-06-06 Seiko Epson Corporation Head-mounted type display device and method of controlling head-mounted type display device

Also Published As

Publication number Publication date
JP4268191B2 (ja) 2009-05-27
JPWO2006064655A1 (ja) 2008-06-12
US20080141127A1 (en) 2008-06-12
US8327279B2 (en) 2012-12-04
CN101080691A (zh) 2007-11-28
CN101080691B (zh) 2010-12-22

Similar Documents

Publication Publication Date Title
JP4268191B2 (ja) 情報提示装置、情報提示方法、プログラム、及び記録媒体
US11024263B2 (en) Method and apparatus for adjusting augmented reality content
CN109564749B (zh) 图像显示系统、以及头戴式显示器的控制装置及其工作方法和非暂时性的计算机可读介质
US10423837B2 (en) Method and apparatus for a wearable computer
KR102257181B1 (ko) 감각 안경류
JP4927631B2 (ja) 表示装置、その制御方法、プログラム、記録媒体および集積回路
CN109683716B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
KR102289389B1 (ko) 가상 오브젝트 방위 및 시각화
US9727790B1 (en) Method and apparatus for a wearable computer with natural user interface
JP6095763B2 (ja) ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法
US20150331240A1 (en) Assisted Viewing Of Web-Based Resources
US9696798B2 (en) Eye gaze direction indicator
US20190227694A1 (en) Device for providing augmented reality service, and method of operating the same
US7474335B2 (en) Method, apparatus and program storage device for image position stabilizer
WO2005122128A1 (ja) 装着型情報提示装置
JP2017537368A (ja) 視線によって制御されるヘッドマウント型ディスプレイ装置、その制御方法、及びその制御のためのコンピュータプログラム
JP6292478B2 (ja) 透過型hmdを有する情報表示システム及び表示制御プログラム
US20210004081A1 (en) Information processing apparatus, information processing method, and program
KR20160016524A (ko) 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법
CN110082911A (zh) 用于展示在显示视频中如何盯着对象的表达的装置和方法
JP2021165864A (ja) 情報処理装置、情報処理方法、及びプログラム
KR102269833B1 (ko) 스마트 안경
US11450113B1 (en) Method and apparatus for a wearable computer
KR20180109669A (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
US20200211295A1 (en) Methods and devices for transitioning among realities mediated by augmented and/or virtual reality devices

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2006548746

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11792224

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580043047.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05809534

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5809534

Country of ref document: EP