WO2019135313A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2019135313A1
WO2019135313A1 PCT/JP2018/041436 JP2018041436W WO2019135313A1 WO 2019135313 A1 WO2019135313 A1 WO 2019135313A1 JP 2018041436 W JP2018041436 W JP 2018041436W WO 2019135313 A1 WO2019135313 A1 WO 2019135313A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
gaze
score
viewpoint
Prior art date
Application number
PCT/JP2018/041436
Other languages
English (en)
French (fr)
Inventor
安田 亮平
野田 卓郎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/958,344 priority Critical patent/US11314326B2/en
Priority to EP18898932.1A priority patent/EP3736666B1/en
Priority to CN201880083778.XA priority patent/CN111527466A/zh
Priority to JP2019563929A priority patent/JP7272278B2/ja
Publication of WO2019135313A1 publication Critical patent/WO2019135313A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Definitions

  • the server 20 stores object information which is various information related to various objects ob existing in the environment where the user U is placed. Also, the server 20 may manage user information and the like of the user U who uses the information processing apparatus 10. The information processing apparatus 10 can appropriately acquire these pieces of information by communicating with the appropriate server 20 as necessary.
  • the information processing apparatus 10 includes, for example, a viewpoint information acquisition unit 101, a position related information acquisition unit 103, a head rotation information acquisition unit 105, a gaze score calculation unit 107, a determination unit 109, and a display.
  • a control unit 111, a communication control unit 113, and a storage unit 115 are provided.
  • the head rotation center of the user U and the center of the object ob are acquired by the position related information acquisition unit 103 using a known position acquisition technique.
  • the head rotation information acquisition unit 105 detects a temporal change in the head direction ud of the user U with respect to a straight line connecting the position of the user U, that is, the head rotation center and the object center C, as the rotation direction of the head of the user U. It is acquired by.
  • head rotation information acquiring unit 105 an angle alpha t1 at a certain time t 1, detects the angle alpha t2 at different times t 2 and t 1, the difference between the detected angle alpha t1 and alpha t2 alpha the t2-.alpha. t1 divided by t 2 -t 1 calculates the angular velocity omega.
  • the head rotation information acquired by the head rotation information acquisition unit 105 is transmitted to the gaze score calculation unit 107.
  • the acquired head rotation information may be transmitted to the storage unit 115 as necessary, and may be stored as history information.
  • the position related information acquisition unit 103 and the head rotation information acquisition unit 105 may be configured by a sensor for acquiring position information, such as an acceleration sensor or a gyro sensor, and the output from the sensor is used. Thus, position related information and head rotation information of the user U may be acquired.
  • the user U does not gaze at a predetermined object ob, as shown in FIG. 3, even if the user U rotates his head in the direction in which the object ob is present, the head direction ud of the user U is an object Before and after coinciding with the direction of the center C, the user U rotates the head without decreasing the angular velocity ⁇ . Thereafter, the user U continues to rotate the head such that the angle ⁇ increases.
  • the user U changes the gaze symmetry to another object ob from the state in which the user U gazes at the predetermined object ob
  • the user U places his head on the head so that the direction of the head matches the direction of the other object ob. Rotate. At this time, the head of the user U rotates so as to increase the angular velocity ⁇ .
  • the gaze score calculation unit 107 can further calculate the gaze score S according to the position of the viewpoint P of the user U.
  • the fixation score calculation unit 107 may increase the fixation score S.
  • a calculation formula may be used such that the gaze score S is higher when the angle ⁇ is smaller than when the angle ⁇ is large.
  • a fixation score calculation formula may be used such that a higher fixation score S is obtained.
  • the gaze score calculation unit 107 calculates the gaze score addition amount according to the acquired viewpoint information, position related information, and head rotation information, and adds the gaze score addition amount to the gaze score S acquired immediately before.
  • the gaze score S may be calculated.
  • the initial value of the fixation score S and the fixation score addition amount may change at each timing at which the fixation score S is calculated.
  • the gaze score calculation unit 107 calculates the distance between the object ob and the user U, the distance from the object center C to the viewpoint P of the user U, the straight line connecting the head rotation center and the object center C, and the user U
  • the initial value of the fixation score S, the fixation score addition amount, and the like may be changed according to the angle ⁇ or the like with the direction in which the user is facing.
  • the fixation score S may be calculated by the following equation.
  • f (S t ) can be any function with the score S t as a variable.
  • the specific functional form is not limited, but may be a polynomial function such as a linear function or a quadratic function, or may be an exponential function or a logarithmic function.
  • St2 f ( St1 ) + A (1)
  • the plane defined by the time t and the angular velocity ⁇ can be divided into the regions R 1 to R 5 .
  • Region R 1 is the head of the user U, reduces the straight line connecting the head rotation center and the object center C, an angle between the head direction ud of the user U acquired by the position-related information acquiring unit 103 alpha is Is a state in which the angular velocity ⁇ associated with the rotation of the head is equal to or greater than the predetermined value ⁇ th , but the viewpoint P of the user U is not on the gaze target object ob.
  • the viewpoint P of the user U is on a gaze object ob, although the angular velocity omega a predetermined value omega th or more, since the direction in which the angle ⁇ is reduced the head of the user U is rotating, As shown in the region R2 'of FIG. 5, the fixation score S increases.
  • the degree of increase in the fixation score S is determined by the function form of f (S t ) of equation (1).
  • Region R 5 are perspective P of the user U shows a state of moving from the object ob was in gaze state to another object ob. Since the viewpoint P of the user U deviates from the object ob in the state of gaze, the gaze score S decreases.
  • the display control unit 111 can change and display the display size of the target object ob according to the gaze score S.
  • the object ob displayed with the display size changed is not limited to one, and the display sizes of the plurality of objects ob may be changed and displayed.
  • the display control unit 111 can enlarge and display the objects ob when the gaze scores S of the plurality of objects ob are within the range of a predetermined value.
  • the display control unit 111 can move and display the object ob, which is displayed only in part, in accordance with the fixation score S.
  • the selection expression to be displayed by the display control unit 111 may be one that changes continuously as the fixation score S increases or decreases, or one or a plurality of threshold values are set in advance and stepwise It may be a selective expression that changes.
  • the display control unit 111 can display the object ob by a predetermined selection expression when the fixation score S becomes equal to or more than a predetermined threshold value.
  • the selected expression of the object ob may be reset.
  • the display control unit 111 can change the method of presenting object information in accordance with the fixation score S.
  • 10A and 10B are explanatory diagrams for describing a method of presenting object information according to the gaze score S.
  • FIG. 10A and 10B are explanatory diagrams for describing a method of presenting object information according to the gaze score S.
  • the storage unit 115 is an example of a storage device included in the information processing apparatus 10 according to the present embodiment.
  • the storage unit 115 appropriately stores various programs, databases, and the like that are used when the information processing apparatus 10 performs the various processes as described above.
  • various types of information acquired by the viewpoint information acquisition unit 101, the position related information acquisition unit 103, and the like as described above may be recorded as history information.
  • various parameters that need to be stored, progress of processing, and the like are appropriately recorded in the storage unit 115, for example, when each of the gaze score calculation unit 107 and the determination unit 109 performs respective processing. It is also good.
  • the processing is not limited to the processing performed by the gaze score calculation unit 107 and the determination unit 109, and various parameters or processing progress may be appropriately stored when the information processing apparatus 10 according to the present embodiment performs some processing. It may be recorded.
  • the viewpoint information acquisition unit 101, the position related information acquisition unit 103, the head rotation information acquisition unit 105, the gaze score calculation unit 107, the determination unit 109, etc. can freely execute read / write processing. It is possible.
  • a global coordinate system which is a three-dimensional orthogonal coordinate system having a predetermined position as an origin, is set in a space where a user U who uses the information processing apparatus 10 exists. Further, with the position of the user U who uses the information processing apparatus 10 as an origin, an apparatus coordinate system related to the information processing apparatus 10 is set in the same direction as the coordinate axis of the global coordinate system.
  • ⁇ Operation example 2> In the operation example 1, the case where the gaze score calculation unit 107 calculates the gaze score S when the viewpoint P of the user U is on the object ob based on the viewpoint information acquired by the viewpoint information acquisition unit 101 has been described. However, even if the viewpoint P of the user U is not on the object ob, the fixation score S may be calculated for the object ob.
  • the gaze score calculation unit 107 sets the information display threshold value S2 th to a value depending on the distance d 1 or the distance d 2 , so that the display control unit 111 displays the object information.
  • the display timing of may be controlled.
  • the determination unit 109 can perform gaze determination using the gaze score S calculated by the above method. Determining threshold S1 th to be used for gaze determination may be a value that depends on the distance d 1 and distance d 2 and the like. Thereby, the determination unit 109 can change the timing of the gaze determination.
  • the position-related information acquisition unit 103 acquires the separation distance between the user U and the object ob as position-related information, and transmits the position-related information to the gaze score calculation unit 107.
  • the fixation score calculation unit 107 may set a fixation score calculation formula in which the separation distance is one of variables, and may calculate the fixation score S such that the calculated fixation score S increases as the separation distance decreases.
  • the position related information acquisition unit 103 acquires the velocity v of the user U with respect to the object ob as the position related information, and transmits the position related information to the gaze score calculation unit 107.
  • the fixation score calculation unit 107 may calculate the fixation score S such that the fixation score S value calculated is larger as the velocity v is smaller, using the fixation score calculation formula as a function of the velocity v.
  • the user information includes, for example, information such as gender, height, hobbies and user's schedule as shown in FIG.
  • the user information is stored in an apparatus having a function of storing information, such as the storage unit 115 and the server 20.
  • the determination unit 109 can set the determination threshold S1 th lower than the object ob that is not associated with the user information at the time of the gaze determination on the object ob related to the user information.
  • the determination unit 109 can also determine the gaze state based on the object information.
  • the determination unit 109 has a lower value than the determination threshold S1 th for the object ob of the high priority category, etc., as compared with the object ob of the other low priority category. It may be changed to
  • the fixation score calculation unit 107 may further calculate the fixation score S based on the history information. Specifically, when the fixation score S is calculated for the object ob that the user U has already visually recognized, the fixation score calculation unit 107 determines that the fixation score S of the accumulation for the object ob is a fixation state.
  • the fixation score calculation formula and the information display threshold value S2 th may be changed according to the history information such as the number of times and the frequency determined.
  • the information processing technology according to the present embodiment may be used for an object ob such as a target displayed in a game being played.
  • the present disclosure detects a degree of gaze according to head related information such as viewpoint information of the user U, a rotation direction of the head of the user U with respect to the object ob, and an angular velocity accompanying the rotation of the head. is there. Therefore, the present disclosure relates to moving objects in an environment where the field of view changes not only with the viewpoint but also with the head direction or position, such as an augmented reality (AR) environment or a virtual reality (VR) environment. On the other hand, it is possible to effectively display predetermined content at the timing intended by the user.
  • head related information such as viewpoint information of the user U
  • an angular velocity accompanying the rotation of the head is there. Therefore, the present disclosure relates to moving objects in an environment where the field of view changes not only with the viewpoint but also with the head direction or position, such as an augmented reality (AR) environment or a virtual reality (VR) environment.
  • AR augmented reality
  • VR virtual reality
  • the information processing device 50 includes an imaging device 510 and a display control device 550.
  • the imaging device 510 according to the present embodiment has a function of imaging at least a part of a space in which the information processing device 50 is disposed to generate a captured image.
  • the imaging device 510 according to the present embodiment can use, for example, a known imaging device having an imaging function, such as a digital still camera or a digital video camera.
  • the display control device 550 displays the image at a predetermined position in the space based on the captured image, the position related information, the viewpoint information of the person existing in the imaging space, and the like acquired by the imaging device 510. It has a function of controlling the display method and display contents of information to be made.
  • the acquisition method of the position relevant information which concerns on this embodiment, viewpoint information, etc. is only an example to the last, and is not limited to said thing.
  • the display control device 550 does not have to have all the functions as described above, and may have only a function of displaying predetermined information in the installed space.
  • the head rotation information acquisition unit 551, the gaze score calculation unit 553, and the determination unit 555 do not necessarily have to be provided in the display control device 550 as long as the imaging device 510 or the server 60 has the same function.
  • the head rotation information acquisition unit 551, the gaze score calculation unit 553, and the determination unit 555 may be distributed and implemented in the server 60, the imaging device 510, and the display control device 550.
  • FIG. 20 is a flow chart showing an example of the flow of the operation of the information processing system 5 according to the present embodiment.
  • FIG. 21 is an explanatory diagram for describing an example of the operation of the information processing system 5 according to the present embodiment.
  • a determination threshold for the determination unit 555 to determine the gaze state is set.
  • the display control unit 557 may set an information display threshold for displaying object information.
  • the determination threshold and the information display threshold may be set based on any information handled by the information processing apparatus 50 according to the present embodiment. For example, from an object center calculated based on viewpoint information and position related information, a separation distance between a person and an object present in a space where the information processing apparatus 50 is installed, which is one of position related information
  • the determination threshold, the information display threshold, and the like may be set using user information including the distance to the viewpoint P of the person, information characterizing the feature and preference of the person, and the like.
  • the imaging apparatus 510 acquires viewpoint information from the acquired image using a known viewpoint information acquisition technique (S205).
  • the fixation score calculation unit 553 calculates the fixation score S of the object (S209). Specifically, the calculation formula set in S201 is used, and the gaze score S for the object ob is calculated based on the position related information, the viewpoint information, and the head rotation information acquired in S203 to S207.
  • the display control unit 557 highlights the object in a display method according to the fixation score S (S211).
  • S203 to S211 are sequentially repeated, and when the fixation score S of the object becomes equal to or higher than the determination threshold, the determination unit 555 determines that the person who is in the space where the information processing device 50 is installed gazes at the object It is determined that Further, when the calculated gaze score S exceeds the predetermined information display threshold and reaches the information display level, as shown in FIG. 21, the display control device 550 displays object information according to the information display level. .
  • the gaze score S decreases to cause gaze
  • the state may be released and the displayed object information may be deleted.
  • FIG. 22 is a block diagram showing the hardware configuration of the information processing apparatus according to the present embodiment.
  • the information processing apparatus includes a central processing unit (CPU) 901, a read only memory (ROM) 902, a random access memory (RAM) 903, a host bus 904, a bridge 905, an external bus 906, and an interface 907.
  • a storage device (HDD) 911 and a network interface 913 are provided.
  • the information processing apparatus according to the present embodiment may have an input device 908, a display device 909, an audio output device 910, and a drive 912.
  • the input device 908 includes input means for a member such as a touch panel, a button, a microphone, a sensor, a switch and a lever to input information, and an input control circuit which generates an input signal based on the input by the member and outputs it to the CPU 901 It can be configured.
  • a member such as a touch panel, a button, a microphone, a sensor, a switch and a lever to input information
  • an input control circuit which generates an input signal based on the input by the member and outputs it to the CPU 901 It can be configured.
  • the storage device 911 is a device for data storage configured as an example of a storage unit of the information processing device according to the present embodiment.
  • the storage device 911 may include a storage medium, a recording device that records data in the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes data recorded in the storage medium.
  • the storage device 911 is configured by, for example, a hard disk drive (HDD) or a solid storage drive (SSD), a memory having an equivalent function, or the like.
  • the storage device 911 drives a storage and stores programs executed by the CPU 911 and various data.
  • the drive 912 is a reader / writer for a storage medium, and is built in or externally attached to the information processing apparatus.
  • the drive 912 reads out information recorded in a removable storage medium 92 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 903 or storage device 911.
  • the drive 912 can also write information to the removable storage medium 92.
  • the information processing apparatus determines that the user U is in a gaze state of gazing at the object when the gaze score of the object is equal to or more than a predetermined threshold.
  • the information processing apparatus further including a gaze score calculation unit that calculates a gaze score based on the viewpoint information, the position related information, and the head rotation information.
  • the gaze score calculation unit is configured to calculate the gaze score based on the gaze score calculated at the previous calculation timing and the gaze score addition amount according to the acquired viewpoint information, the position related information, and the head rotation information.
  • the information processing apparatus which calculates (5)
  • the gaze score calculation unit calculates the gaze score according to the distance between the viewpoint of the user calculated from the viewpoint information and the position related information and the predetermined position of the object, (3) or The information processing apparatus according to 4).
  • the gaze score calculation unit calculates the gaze score according to the distance between the viewpoint of the user calculated from the viewpoint information and the position related information and the center of the object, (3) to (5)
  • the information processing apparatus according to any one of the above.
  • the gaze score calculation unit calculates the gaze score according to a distance between the viewpoint of the user outside the object calculated from the viewpoint information and the position related information and an end of the object.
  • the information processing apparatus according to any one of (3) to (6).
  • the position related information includes relative velocity information on the relative velocity of the user to the object, The information processing apparatus according to (3), wherein the gaze score calculation unit calculates the gaze score according to the relative velocity information.
  • a display control unit for controlling at least one of a display method of the object according to the fixation score of the object and display content of the object regarding the object provided according to the fixation score.
  • the information processing apparatus according to any one of (12) to (12).
  • the determination unit determines that the user is in a gaze state of gazing at the object when the gaze score of the object is equal to or higher than a predetermined threshold.
  • the display control unit displays, for the object in the gaze state, object information on the object provided according to the gaze score when the gaze score of the object is equal to or more than a predetermined threshold ( The information processing apparatus according to any one of 1) to (13).
  • the display control unit displays object information on the object provided according to the gaze score so as to be superimposed on the field of view of the user when the gaze score is equal to or higher than a predetermined threshold value.
  • the information processing apparatus according to any one of (14) to (14).
  • a plurality of pieces of information are stored in advance as object information associated with each of the objects,
  • the information processing apparatus according to any one of (1) to (16), wherein the display control unit causes the object information to be output according to a predetermined condition out of the object information.
  • the display control unit further controls at least one of a display method of the object according to the fixation score of the object and display content of the object regarding the object provided according to the fixation score. Storing as object history information on the object having the gaze score calculated by the gaze score calculation unit;
  • the information processing apparatus according to any one of (1) to (17), wherein the display control unit outputs the object information matching a predetermined condition with reference to the stored object history information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザの意図するタイミングで所定の内容を表示させることが可能な、情報処理装置、情報処理方法及びプログラムを提案する。 【解決手段】ユーザの視点に関する視点情報を取得する視点情報取得部と、ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得する位置関連情報取得部と、ユーザの頭部の回転に伴う角速度と角速度の変化に関する頭部回転情報を取得する頭部回転情報取得部と、視点情報、位置関連情報及び頭部回転情報に応じてオブジェクト毎に算出され、オブジェクトに対するユーザの注視の程度を表す注視スコアに基づいて、ユーザがオブジェクトを注視しているかどうかを判定する判定部と、を備える情報処理装置。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 仮想空間内のメニューアイテムや実空間内の物体等の選択対象となるオブジェクト群に対するユーザの視点を検出してオブジェクトを選択するような場合、一般的に、オブジェクト毎の注視点の滞留時間を利用して注視状態であるか否かを判定する手法が用いられている。注視点の滞留時間を利用してオブジェクト選択する方法では、注視点の滞留時間の判定閾値を小さくするほど、ユーザの意図とは異なるオブジェクトが選択されてしまう事がある。
 そこで、以下の特許文献1には、ユーザの顔向き情報、距離情報、注視時間情報、解像度情報等を用いて算出される注視位置の検出精度に応じて、表示部に表示させるUI(User Interface)の表示形態を切り替える情報処理装置が開示されている。
特開2016-151798号公報
 しかし、特許文献1に開示されている情報処理装置は、検出精度に応じて表示形態を切り替えるものであり、十分な検出精度が得られない場合には、ユーザの注視位置近傍にあるいくつかのアイコン等を表示させるのみである。そのため、ユーザの意図するタイミングで、所定の内容を表示させることには未だ改善の余地がある。
 そこで、本開示では、上記事情に鑑みて、ユーザの意図するタイミングで所定の内容を表示させることが可能な、情報処理装置、情報処理方法及びプログラムを提案する。
 本開示によれば、ユーザの視点に関する視点情報を取得する視点情報取得部と、ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得する位置関連情報取得部と、ユーザの頭部の回転に伴う角速度と前記角速度の変化に関する頭部回転情報を取得する頭部回転情報取得部と、視点情報、位置関連情報及び頭部回転情報に応じてオブジェクト毎に算出され、オブジェクトに対するユーザの注視の程度を表す注視スコアに基づいて、ユーザが前記オブジェクトを注視しているかどうかを判定する判定部とを備える、情報処理装置が提供される。
 また、本開示によれば、ユーザの視点に関する視点情報を取得することと、ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得することと、ユーザの頭部の回転に伴う角速度と角速度の変化に関する頭部回転情報を取得することと、視点情報、位置関連情報及び頭部回転情報に応じてオブジェクト毎に算出され、オブジェクトに対するユーザの注視の程度を表す注視スコアに基づいて、ユーザがオブジェクトを注視しているか否かを判定すること、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、ユーザの視点に関する視点情報を取得する視点取得部、ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得する位置関連情報取得部、ユーザの頭部の回転に伴う角速度と角速度の変化に関する頭部回転情報を取得する頭部情報取得部、及び視点情報、位置関連情報及び頭部回転情報に応じてオブジェクト毎に算出され、オブジェクトに対するユーザの注視の程度を表す注視スコアに基づいて、ユーザが前記オブジェクトを注視しているかどうかを判定する注視スコア算出部、として機能させるための、プログラムが提供される。
 本開示によれば、ユーザの視点情報と、ユーザとオブジェクトの位置に関する位置関連情報と、ユーザの頭部の回転に関する頭部回転情報に応じて、オブジェクト毎に注視スコアが判定される。
 以上説明したように本開示によれば、ユーザの意図するタイミングで所定の内容を表示させることが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は、上記の効果に代えて、本明細書に示されたいずれかの効果、又は、本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システム1の構成の一例を示すブロック図である。 同実施形態に係る頭部回転情報の概要を説明するための説明図である。 同実施形態に係る頭部回転情報の概要を説明するための説明図である。 同実施形態に係る頭部回転情報の概要を説明するための説明図である。 同実施形態に係る頭部回転情報の概要を説明するための説明図である。 同実施形態に係るオブジェクトobの表示形態の一例を示す説明図である。 同実施形態に係るオブジェクトobの表示形態の一例を示す説明図である。 同実施形態に係るオブジェクトobの表示形態の一例を示す説明図である。 同実施形態に係るオブジェクトobの表示形態の一例を示す説明図である。 同実施形態に係るオブジェクトobの表示形態の一例を示す説明図である。 同実施形態に係るオブジェクト情報の表示方法の一例を示す説明図である。 同実施形態に係るオブジェクト情報の表示方法の一例を示す説明図である。 同実施形態に係るオブジェクト情報の表示方法の一例を示す説明図である。 同実施形態に係るオブジェクトobの表示形態の一例を示す説明図である。 同実施形態に係るオブジェクトobの表示形態の一例を示す説明図である。 同実施形態に係る動作の流れの一例を示す流れ図である。 同実施形態に係る動作の一例を説明するための説明図である。 同実施形態に係る動作の一例を説明するための説明図である。 同実施形態に係るユーザ情報の一例を説明するための説明図である。 同実施形態に係るオブジェクト情報の一例を説明するための説明図である。 同実施形態に係る動作の一例を説明するための説明図である。 同実施形態に係る注視スコア履歴情報の一例を説明するための説明図である。 本開示の別の実施形態に係る情報処理システム5の構成の一例を示すブロック図である。 同実施形態に係る表示制御装置550の構成の一例を示すブロック図である。 同実施形態に係る動作の流れの一例を示す流れ図である。 同実施形態に係る動作の一例を説明するための説明図である。 本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 <<<第1の実施形態>>>
 <<構成>>
 <全体構成>
 <情報処理装置10の構成>
 <<動作>>
 <動作例1>
 <動作例2>
 <動作例3>
 <動作例4>
 <動作例5>
 <動作例6>
 <動作例7>
 <<<第2の実施形態>>>
 <<構成>>
 <<動作>>
 <<<ハードウェア構成>>>
 <<<結び>>>
<<<第1の実施形態>>>
<<構成>>
 まず、図1、図2、および図3を参照して本開示の一実施形態に係る情報処理システム1の全体構成を説明する。図1は、本開示の一実施形態に係る情報処理システム1の構成例を示すブロック図である。図2は、同実施形態に係る頭部回転情報の概要を説明するための説明図である。図3は、同実施形態に係る頭部回転情報の概要を説明するための説明図である。
<全体構成>
 図1に示すように、本実施形態に係る情報処理システム1は、情報処理装置10を少なくとも備える。情報処理装置10は、必要に応じてインターネット等の公知のネットワーク30を介して、1または複数の各種のサーバ20と相互に通信を行うことが可能である。
 本実施形態に係る情報処理装置10は、例えばメガネ型ディスプレイやヘッドマウントディスプレイ(Head Mount Display:HMD)等のような、ユーザUが装着して使用する装置であってもよく、スマートフォンなどの情報処理端末であってもよい。情報処理装置10は、ユーザUの視点Pに関する視点情報と、ユーザUとオブジェクトobとの位置関連情報とを取得する。情報処理装置10は、更に、取得された視点情報と位置関連情報を基にユーザUの頭部の回転に伴う角速度と角速度の変化に関する頭部回転情報を取得する。情報処理装置10は、取得された、視点情報、位置関連情報及び頭部回転情報に応じて、オブジェクトobに対するユーザUの注視の程度を表す注視スコアSを算出して、ユーザUがオブジェクトobを注視しているか否かを判定する機能を有する。
 サーバ20には、ユーザUが置かれた環境に存在する各種のオブジェクトobに関する様々な情報であるオブジェクト情報が格納されている。また、サーバ20は、情報処理装置10を利用するユーザUのユーザ情報等を管理していてもよい。情報処理装置10は、必要に応じて適切なサーバ20と相互通信を行うことで、これらの情報を適宜取得することができる。
 ネットワーク30は、例えばインターネット等のような公知の情報通信技術を用いて実現されており、情報処理装置10と、サーバ20とを相互に接続する。
 オブジェクト情報は、オブジェクトobそのものに関する情報、又はそのオブジェクトobに対して設定されて利用される情報の少なくともいずれかを含む。オブジェクトobそのものに関する情報は、例えば、オブジェクトobの名称、カテゴリ等の情報等を含んでもよく、そのオブジェクトobに対して設定されて利用される情報は、例えば、オブジェクトobが商品である場合、在庫数量、販売優先度、販売期間等の情報を含んでもよい。
 また、オブジェクト情報は、オブジェクトobを管理する管理者、例えば、オブジェクトobが商品である場合、オブジェクトobのメーカーや販売会社等によってあらかじめ登録されていてもよい。
 ユーザ情報とは、ユーザUの外見や嗜好等、ユーザU個人を特徴づける情報である。このような情報としては、例えば、ユーザUの性別、身長、趣味等の情報の他、更にユーザUの予定等の情報を含んでもよい。ユーザ情報は、情報処理装置10を使用するユーザU等により登録されたものであってもよいし、サーバ20が、ユーザUの行動等を機械学習することで自動的に蓄積されるものであってもよい。
<情報処理装置10の構成>
 次に、本実施形態に係る情報処理装置10の構成について詳細に説明する。本実施形態に係る情報処理装置10は、例えば、視点情報取得部101と、位置関連情報取得部103と、頭部回転情報取得部105と、注視スコア算出部107と、判定部109と、表示制御部111と、通信制御部113と、記憶部115とを備える。
 視点情報取得部101は、情報処理装置10に備えられた可視カメラや赤外カメラ等の撮像装置から得られた画像情報に基づき、情報処理装置10を使用しているユーザUの視点Pに関する視点情報を取得する。
 このとき、情報処理装置10には、情報処理装置10の位置を原点とした3次元直交座標系が、情報処理装置10の座標系(以降、情報処理装置10の座標系を、単に「装置座標系」と略記する。)として予め設定されている。視点情報取得部101は、例えば、装置座標系におけるユーザUの眼の位置及び視線方向等を公知の視点検出技術を用いて取得し、かかる装置座標系を空間に設定される固定の座標系であるグローバル座標系に変換して視点情報とすることができる。取得された視点情報は、頭部回転情報取得部105又は注視スコア算出部107の少なくともいずれか一方に送信される。また、取得された視点情報は、必要に応じて記憶部115に送信されて履歴情報として保存されてもよい。
 位置関連情報取得部103は、ユーザUの位置に関連する位置関連情報を取得する。位置関連情報には、ユーザUの位置に関する様々な情報が含まれる。このような情報として、ユーザUとオブジェクトobとの離隔距離、オブジェクトobに対するユーザUの移動速度(すなわち、ユーザUとオブジェクトobとの離隔距離の時間変化)等が例示できる。
 位置関連情報取得部103は、例えば、情報処理装置10に備えられたカメラ等により実現され、情報処理装置10が存在する空間に設定されるグローバル座標系から見た装置座標系の位置及び向き等をSLAM(Simultaneous Localization and Mapping)等の公知の技術で取得してもよい。取得された装置座標系の位置及び向きは、ユーザUの位置及び向きとして利用される。そして、取得された位置関連情報は、頭部回転情報取得部105又は注視スコア算出部107の少なくともいずれか一方に送信される。また、取得された位置関連情報は、必要に応じて記憶部115に送信され、履歴情報として保存されてもよい。
[頭部回転情報取得部105]
 頭部回転情報取得部105は、ユーザUの頭部の回転に伴う角速度と角速度の変化に関する頭部回転情報を取得する。
 ここで、頭部回転情報取得部105は、例えば、位置関連情報取得部103で取得された装置座標系の方向を頭部の方向として取得してもよい。また、頭部回転情報取得部105は、頭部の方向の時間変化を検出することで、ユーザUの頭部の回転方向を取得してもよい。より詳細には、頭部回転情報は、ユーザUの位置とみなすことができる頭部回転中心とオブジェクト中心Cとを結ぶ直線と、位置関連情報取得部103で取得されたユーザUの頭部方向udを基に取得される。
 図2は、ユーザUが所定のオブジェクトobを注視しようとする場合を模式的に示した図である。
 ユーザUの頭部回転中心及びオブジェクトobの中心は、位置関連情報取得部103によって公知の位置取得技術を用いて取得される。ユーザUの頭部の回転方向は、頭部回転情報取得部105により、ユーザUの位置すなわち頭部回転中心とオブジェクト中心Cとを結ぶ直線に対するユーザUの頭部方向udの時間変化を検出することで取得される。
 また、頭部回転情報取得部105は、ある時刻tにおける角度αt1と、tとは異なる時刻tにおける角度αt2とを検出し、検出された角度αt1とαt2の差分αt2-αt1をt-tで除して角速度ωを算出する。
 頭部回転情報取得部105で取得された頭部回転情報は、注視スコア算出部107に送信される。また、取得された頭部回転情報は、必要に応じて記憶部115に送信され、履歴情報として保存されてもよい。
 なお、位置関連情報取得部103及び頭部回転情報取得部105は、加速度センサ、ジャイロセンサ等のような位置情報を取得するためのセンサで構成されてもよく、かかるセンサからの出力を利用して、ユーザUの位置関連情報及び頭部回転情報は取得されてもよい。
[注視スコア算出部107]
 注視スコア算出部107は、少なくとも視点情報取得部101で取得された視点情報、位置関連情報取得部103で取得された位置関連情報、及び頭部回転情報取得部105で取得された頭部回転情報に応じて、オブジェクトob毎に、オブジェクトobに対するユーザUの注視の程度を表す注視スコアSを算出する。算出された注視スコアSは、判定部109又は表示制御部111の少なくともいずれか一方に送信される。
 ここで、注視スコアSを算出方法の概要について説明する。先だって言及したように、注視スコアSの算出には、ユーザUの頭部の回転方向および回転に伴う角速度ωが用いられる。
 注視スコアSの算出は、ユーザUの頭部の回転方向および回転に伴う角速度ωに加え、本実施形態に係る情報処理装置10が扱うあらゆる情報に基づいて設定されてもよい。例えば、位置関連情報の一つであるユーザUとオブジェクトobとの間の離隔距離や、視点情報と位置関連情報に基づいて算出されたオブジェクト中心CからユーザUの視点Pまでの距離d、ユーザUの特徴及びユーザUの嗜好を特徴づける情報等を含むユーザ情報等に応じて注視スコアSは算出されてもよい。
 ユーザUが所定のオブジェクトobを注視しようとする場合、ユーザUはオブジェクトobのある方向にユーザUの頭部の方向を一致させようとして、当該オブジェクトobの中心方向に向かって頭部を回転させる。そして、ユーザUの頭部の方向がオブジェクトobのある方向に近づくと、ユーザUは、頭部の回転速度を小さくする。つまり、ユーザUが所定のオブジェクトobを注視しようとする場合、図2に示すように、当該オブジェクト中心CとユーザUを結ぶ直線に対するユーザUの頭部方向udとの差である角度αが減少していき、角度αが小さくなると、ユーザUは頭部の回転に伴う角速度ωを減少させる。
 ユーザUが所定のオブジェクトobを注視しない場合、図3に示すように、当該オブジェクトobが存在する方向に向かってユーザUが頭部を回転させたとしても、ユーザUの頭部方向udがオブジェクト中心C方向と一致する前後において、ユーザUは角速度ωを減少させることなく頭部を回転させる。その後、ユーザUは角度αが増大するように頭部を引き続き回転させる。
 また、ユーザUが所定のオブジェクトobを注視した状態から、他のオブジェクトobに注視の対称を変える場合、ユーザUは、他のオブジェクトobの方向に頭部の方向が一致するように頭部を回転させる。このとき、ユーザUの頭部は、角速度ωが増大するように回転する。
 したがって、オブジェクトobに対する頭部の回転方向及び角速度ωに着目することで、ユーザUの意図を反映させて、より正確かつ迅速に注視スコアSを算出することができる。つまり、注視スコアSを算出する算出式を、頭部の回転方向及び角速度ωを反映したものとすることで、注視スコアSを正確かつ迅速に算出することができる。
 また、注視スコア算出部107は、更に、ユーザUの視点Pの位置に応じて注視スコアSを算出することができる。
 例えば、ユーザUの視点Pがオブジェクトob上に位置しており、オブジェクトobに対するユーザUの頭部の回転方向が、頭部回転中心とオブジェクト中心Cとを結ぶ直線と、位置関連情報取得部103で取得されたユーザUの頭部の方向とのなす角αが減少する方向である場合に、注視スコア算出部107は、注視スコアSが増大するようにしてもよい。
 また、ユーザUの視点Pがオブジェクトob上に位置しており、オブジェクトobに対するユーザUの頭部の回転方向が、角度αが増大する方向である場合であっても、ユーザUの頭部の回転に伴う角速度ωが所定の閾値ωth以下であれば、注視スコア算出部107は、注視スコアSが増大するようにしてもよい。
 注視スコア算出式は、注視スコアS算出タイミング毎に変化させてもよい。ユーザUがオブジェクトobを注視しようと視点Pを移動させ、頭部を回転させている間、注視スコアSを算出する時刻に応じて、視点情報、位置関連情報及び頭部回転情報等は変化する。そのため、注視スコア算出部107は、例えば、オブジェクトobとユーザUとの離隔距離や、オブジェクト中心CからユーザUの視点Pまでの距離d、及び頭部回転中心とオブジェクト中心Cとを結ぶ直線と、ユーザUが向いている方向とのなす角α等に応じて、注視スコアS算出タイミング毎に注視スコア算出式を変化させることができる。
 例えば、ユーザUが所定のオブジェクトobを注視しようとする場合において、角度αが小さいときは、角度αが大きいときと比較して、注視スコアSが高くなるような算出式が用いられてもよい。さらに、角度αが小さく、角速度ωも減少しているときは、より高い注視スコアSとなるような注視スコア算出式が用いられてもよい。
 また、例えば、ユーザUの視点Pがオブジェクトob上に位置していない場合に、注視スコアSが減少するような注視スコア算出式が用いられてもよい。これにより、一度ユーザUの注視の対象から除外されたオブジェクトobについて、ユーザUの意図しないオブジェクトobが選択されることが抑制される。
 注視スコア算出部107は、取得された視点情報、位置関連情報及び頭部回転情報に応じて注視スコア加算量を算出し、その注視スコア加算量を直前に取得された注視スコアSに加えることで、注視スコアSを算出してもよい。
 具体的には、注視スコア算出部107は、ある時刻tで算出された注視スコアSと、tとは異なる時刻tで取得された頭部回転情報に応じて、注視スコア加算量を算出してもよい。
 また、注視スコアSの初期値及び注視スコア加算量は、注視スコアSが算出されるタイミング毎に変化してもよい。注視スコア算出部107は、例えば、オブジェクトobとユーザUとの距離や、オブジェクト中心CからユーザUの視点Pまでの距離、及び頭部回転中心とオブジェクト中心Cとを結ぶ直線と、ユーザUが向いている方向とのなす角α等に応じて、注視スコアSの初期値及び注視スコア加算量等を変化させてもよい。
 具体的には、時刻tにおける注視スコアSをS、注視スコア加算量をAとしたとき、注視スコアSは以下の式で計算してもよい。ここで、f(S)は、スコアSを変数とする任意の関数とすることができる。具体的な関数形は、限定されるものではないが、一次関数や二次関数などの多項式関数としてもよいし、指数関数や対数関数としてもよい。
  St2=f(St1)+A   (1)
 注視スコア加算量であるAは、固定値でもよいし、頭部回転情報によって変化させてもよい。注視スコア加算量は、頭部回転情報に加え、位置関連情報の一つであるユーザUとオブジェクトobとの間の離隔距離や、視点情報と位置関連情報に基づいて算出されたオブジェクト中心CからユーザUの視点Pまでの距離d、ユーザUの特徴及びユーザUの嗜好を特徴づける情報等を含むユーザ情報等に応じて動的に変化させてもよい。
 例えば、注視スコア加算量であるAを頭部回転情報である角速度ωに反比例させる場合、時刻tにおける角速度ω、調整係数cを用いて以下の式で求めることができる。調整係数cは、ユーザUとオブジェクトobとの間の離隔距離や、オブジェクト中心CからユーザUの視点Pまでの距離d、ユーザUの特徴及びユーザ情報等に応じて変化する値とすることができる。
  A=c/ω   (2)
 ただし、ω≠0とする。
 なお、算出された注視スコアSは、記憶部115に送信され、履歴情報として保存されてもよい。
[判定部109]
 判定部109は、注視スコア算出部107により算出された注視スコアSに基づいて、ユーザUがオブジェクトobを注視しているかどうかを、オブジェクトob毎に判定する。具体的には、判定部109は、オブジェクトobの注視スコアSが予め設定された所定の判定閾値以上のときに、ユーザUがオブジェクトobを注視している注視状態であると判定することが好ましい。判定結果は、表示制御部111に少なくとも送信され、必要に応じて記憶部115に送信され、履歴情報として保存されてもよい。
 ここで、図4および図5を参照しながら、注視スコア算出部107により算出される注視スコアSの変化の様子及び判定部109による注視判定について説明する。図4は、各時刻tにおけるユーザUの頭部の角速度ωの一例を示すグラフ図である。図5は、各時刻tと注視スコア算出部107により算出された注視スコアSの関係を示すグラフ図である。図4の領域R1~R5はそれぞれ図5の領域R1’~R5’に対応する。また、図5に示すS1thは、予め設定された判定閾値であり、注視スコアSが判定閾値S1th以上となると、判定部109は、ユーザUがオブジェクトobを注視している注視状態であると判定する。
 ここでは、ユーザUの視点Pが注視の対象とするオブジェクトob上に位置するときに注視スコア加算量が算出される場合を例に挙げて説明する。さらに、注視スコアSの初期値はゼロとし、注視対象のオブジェクトob(以降、単に「注視対象オブジェクトob」と略記する。)上にユーザUの視点Pがない場合、注視スコア加算量は負の値とし、注視スコアSがゼロのときは、注視スコア加算量はゼロとする。また、算出される注視スコア加算量は一定であるとして注視判定方法を説明する。
 図4に示したように、時刻tと角速度ωによって規定される平面を領域R~Rに区分することができる。領域Rは、ユーザUの頭部は、頭部回転中心とオブジェクト中心Cとを結ぶ直線と、位置関連情報取得部103で取得されたユーザUの頭部方向udとのなす角αが減少する方向に回転し、頭部の回転に伴う角速度ωが所定値ωth以上である状態であるものの、ユーザUの視点Pが注視対象オブジェクトob上にない状態を示す領域である。領域Rは、ユーザUの視点Pが注視対象オブジェクトob上にあり、角度αが減少する方向に回転し、角速度ωが所定値ωth以上である状態を示す領域である。領域Rは、ユーザUの視点Pが注視対象オブジェクトob上にあり、角度αが減少する方向に回転し、角速度ωが所定値ωth未満である状態を示す領域である。領域Rは、ユーザUの視点Pが注視対象オブジェクトob上にあり、角度αが増大する方向に回転し、角速度ωが所定値ωth未満である状態を示す領域である。領域Rは、ユーザUの視点Pが注視対象オブジェクトob上にない状態であり、角度αが増大する方向に回転し、角速度ωが所定値ωth以上である状態を示す領域である。
 領域Rにおいて、ユーザUの視点Pは対象オブジェクトobにないため、図5に示したように、領域Rに対応する領域R’において、注視スコア加算量はゼロであり、注視スコアSはゼロのまま一定である。
 領域Rにおいて、ユーザUの視点Pは注視対象オブジェクトob上にあり、角速度ωは所定値ωth以上であるものの、角度αが減少する方向にユーザUの頭部が回転しているため、図5の領域R2’に示すように、注視スコアSは上昇する。ここで、注視スコアSの上昇度合いは、式(1)のf(S)の関数形によって決定される。
 領域Rにおいて、ユーザUの視点Pは注視対象オブジェクトobにあり、角速度ωは所定値ωth未満であり、また、角度αが減少する方向にユーザUの頭部が回転しているため、注視スコアSは上昇する。
 領域Rにおいて、ユーザUの視点Pは注視対象オブジェクトobにあり、角度αが増大する方向にユーザUの頭部が回転しているものの、角速度ωは所定値ωth未満であるため、注視スコアSは上昇する。時刻t’において、注視スコアSは判定閾値S1th以上となり、このとき、判定部109は、ユーザUが当該オブジェクトobを注視している注視状態であると判定する。
 注視スコアSが判定閾値S1th到達した後もスコア算出は継続されるが、注視スコアSが判定閾値S1thに到達した後は、注視スコアSは閾値で維持されてもよい。
 領域Rは、ユーザUの視点Pは注視状態にあったオブジェクトobから他のオブジェクトobに移動する状態を示している。ユーザUの視点Pは注視状態にあったオブジェクトobから外れたため、注視スコアSは減少する。
 注視スコアSが閾値を超えたオブジェクトobからユーザUの視点Pが外れた場合、注視スコア算出部107は、図5に示したように注視スコアSが減少するように注視スコアSを計算してもよい。ユーザUの視点Pがオブジェクトobから外れると注視スコアSが減少し、注視スコアSが判定閾値S1th未満となったときに注視状態が解除されてもよい。視点Pが外れた直後に注視スコアSがゼロとなるような処理を実行してもよい。このような処理を実行されることで、ユーザUの注視の対象となるオブジェクトobが、注視しているオブジェクトobから他のオブジェクトobに変更された直後に、注視状態を解除することができる。
[表示制御部111]
 表示制御部111は、オブジェクトobの注視スコアSに応じて、表示画面への当該オブジェクトobの表示方法及びオブジェクトobの表示内容の少なくともいずれか一方を制御する。
 表示制御部111は、例えば、図6A~図6Eに示すように、注視スコアSに応じてオブジェクトobの表示方法を制御する。図6Aは、オブジェクトobの注視スコアSをメータ表示で示した例である。表示制御部111は、オブジェクトobの注視スコアSの増減に応じてメータが増減するように表示させてもよい。
 また、表示制御部111は、オブジェクトobが選択されたときにオブジェクトobを囲むようにして表現する場合において、注視スコアSが高くなるにつれてユーザUによる視覚的な認識が容易にされるような表現で表示させることができる。例えば、図6B及び図6Cに例示するように、表示制御部111は、注視スコアSに応じて、オブジェクトob周辺の色、透明度、選択表現の形状を変更してオブジェクトobを段階的に強調することができる。
 また、表示制御部111は、図6Dに示すように、注視スコアSに応じて対象オブジェクトobの表示サイズを変更して表示させることができる。
 例えば、本実施形態に係る情報処理装置10に備えられ、外部空間を認識するカメラを用いてオブジェクトobの画像を取得し、表示制御部111は、その画像を当該オブジェクトobに重畳表示させてもよい。表示制御部111は、注視スコアSに応じて重畳表示させたオブジェクトob画像のサイズを変更してユーザUに提供することができる。
 表示サイズが変化して表示されるオブジェクトobは1つに限られず、複数のオブジェクトobの表示サイズが変化して表示されてもよい。表示制御部111は、複数のオブジェクトobの注視スコアSが所定の値の範囲にある場合に、それらのオブジェクトobを拡大表示させることができる。
 また、表示制御部111は、図6Eに示すように、一部しか表示されていないオブジェクトobを、注視スコアSに応じて移動させて表示させることができる。
 例えば、上記と同様に、本実施形態に係る情報処理装置10に備えられ、外部空間を認識するカメラを用いて当該オブジェクトobの画像を取得し、表示制御部111は、オブジェクトobに重畳するように表示させた取得画像を、注視スコアSに応じて移動させてユーザUに提供することができる。
 以上で説明したような選択表現は単独で用いられてもよいし、これらを複数組み合わせて用いられてもよい。また、本開示は、例示していない表現方法であっても、注視スコアSに応じて変化するものを含むものとする。
 なお、表示制御部111が表示させる選択表現は、注視スコアSの増減に伴って、連続的に変化するようなものであってもよいし、予め1つ又は複数の閾値が設定され段階的に変化するような選択表現であってもよい。詳細には、表示制御部111は、注視スコアSが所定の閾値以上となったときに、所定の選択表現によりオブジェクトobを表示させることができる。また、注視スコアSが所定の閾値以下となったオブジェクトobについては、当該オブジェクトobの選択表現はリセットされてもよい。
 また、表示制御部111は、図7~図9に示すように、注視スコアSに応じてオブジェクトobに関連するオブジェクト情報を表示させることができる。図7は、オブジェクト情報の表示方法を説明するための説明図である。図8及び図9は、オブジェクト情報が表示された画像の一例を示す模式図である。
 表示制御部111は、具体的には、オブジェクトobの名称、カテゴリ等の情報や、そのオブジェクトobに対して設定される情報、例えば、オブジェクトobが商品である場合、在庫数量、販売優先度、販売期間等の情報を注視スコアSに応じて表示させることができる。
 表示制御部111には、図7に示すように、注視スコアSに対してオブジェクト情報を表示させるための表示閾値S2thが設定されており、注視スコアSがその表示閾値S2th以上となったときに、ユーザUの視界に重畳するように、該当する情報表示レベルのオブジェクト情報を表示させる。例えば、オブジェクトobの注視スコアSが表示閾値S2th1以上となったとき、図8左上に示すように、情報表示レベル1に属する第1のオブジェクト情報がユーザUに対して表示される。このとき表示される第1のオブジェクト情報は、例えば、そのオブジェクトobに関する基礎的な情報とすることができる。具体的には、表示制御部111は、かかるオブジェクトobが店舗に陳列されたバッグ等の商品である場合、その商品のブランド、価格等の情報を表示させることができる。
 次に、オブジェクトobの注視スコアSが、図7に示したように、S2th2以上となったとき、図9右下に示すように、表示レベル2に属する第2のオブジェクト情報がユーザUに対して表示される。第2のオブジェクト情報は、第1のオブジェクト情報と比較してより詳細な情報とすることができる。例えば、オブジェクトobが商品である場合は、オブジェクトobと同カテゴリで、ユーザUが既に所持している物等、オブジェクトobと関連する情報等とすることができる。表示制御部111は、オブジェクトobが商品である場合、ユーザUの性別、身長や年齢等、その商品の使用が推奨されるユーザUの属性や、使用が推奨される状況等の情報、該商品に類似したユーザUの所有物等の情報を表示させることができる。
 表示制御部111は、ユーザUの視点Pが当該オブジェクトobから外れた直後に表示されたオブジェクト情報を消去してもよいし、注視スコアSが所定のS2th未満となったときに、対応する表示されたオブジェクト情報を消去してもよい。
 更に、表示制御部111は、注視スコアSに応じて、オブジェクト情報の提示方法を変化させることができる。図10A及び図10Bは、注視スコアSに応じたオブジェクト情報の提示方法を説明するための説明図である。
 例えば、オブジェクトob上にユーザUの視点Pが位置すると、図10Aに示すように、オブジェクトobから引出線が表示される。注視スコアSが高くなるにつれてその引出線が伸長し、情報表示レベルに達すると、オブジェクト情報が表示されるようにしてもよい。また、例えば、図10Bに示すように、オブジェクトobから吹き出しを表示させ、注視スコアSに応じて、その吹き出しの透明度やぼかしの程度を変化させ、情報表示レベルに達すると、所定のオブジェクト情報が表示されるようにしてもよい。
[通信制御部113]
 通信制御部113は、サーバ20等に保存されたオブジェクト情報やユーザUの属性に関連するユーザ情報等を、ネットワーク30を介して取得し、受信したオブジェクト情報やユーザ情報等を表示制御部に送信する際の通信制御機能を有する。
[記憶部115]
 記憶部115は、本実施形態に係る情報処理装置10が備える記憶装置の一例である。記憶部115には、情報処理装置10が、上記のような各種の処理を実施する際に利用する各種のプログラムやデータベース等が適宜記録されている。記憶部115には、上記のような視点情報取得部101や位置関連情報取得部103等が取得した各種の情報が履歴情報として記録されていてもよい。更に、記憶部115には、例えば、注視スコア算出部107及び判定部109のそれぞれがそれぞれの処理を行う際に、保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。注視スコア算出部107及び判定部109が実行する処理に限られず、本実施形態に係る情報処理装置10が何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。この記憶部115は、視点情報取得部101、位置関連情報取得部103、頭部回転情報取得部105、注視スコア算出部107、判定部109等が、自由にリード/ライト処理を実施することが可能である。
 ここまで、情報処理装置10の構成の一例について詳細に説明した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
 続いて、情報処理装置10の動作の一例について詳細に説明する。
<<動作>>
<動作例1>
 本実施形態に係る情報処理装置10の動作について、図11を参照しながら説明する。図11は、本実施形態に係る情報処理装置10の動作の流れの一例を示す流れ図である。
 まず、本実施形態に係る情報処理装置10の初期設定がされる(S101)。情報処理装置10を利用するユーザUが存在する空間上に、所定の位置を原点とした3次元直交座標系であるグローバル座標系が設定される。また、情報処理装置10を利用するユーザUの位置を原点とし、グローバル座標系の座標軸と同じ方向に、情報処理装置10に関する装置座標系が設定される。
 また、注視スコアS算出のための初期設定がされる。詳細には、頭部回転情報に加え、位置関連情報の一つであるユーザUとオブジェクトobとの間の離隔距離や、視点情報と位置関連情報に基づいて算出されたオブジェクト中心CからユーザUの視点Pまでの距離dを反映可能な算出式が設定されてもよい。さらに、設定される算出式は、ユーザUの特徴や嗜好を特徴づける情報等を含むユーザ情報等を反映してもよい。例えば、注視スコア算出式として、(1)式及び(2)式が設定されてもよい。
 更に、かかる初期設定では、判定部109が注視状態を判定するための判定閾値S1thが設定される。必要に応じて、表示制御部111がオブジェクト情報を表示させるための情報表示閾値S2thが設定される。
 判定閾値S1th及び情報表示閾値S2thは、本実施形態に係る情報処理装置10が扱うあらゆる情報に基づいて設定されてもよい。例えば、位置関連情報の一つであるユーザUとオブジェクトobとの間の離隔距離や、視点情報と位置関連情報に基づいて算出されたオブジェクト中心CからユーザUの視点Pまでの距離d、ユーザUの特徴や嗜好を特徴づける情報等を含むユーザ情報等を用いて、判定閾値S1th及び情報表示閾値S2thは設定されてもよい。
 情報処理装置10の初期設定がされると、位置関連情報取得部103により位置関連情報が取得される(S103)。具体的には、ユーザUの頭部回転中心に対応するユーザUの位置、オブジェクト中心C、ユーザUとオブジェクトobとの離隔距離、及び頭部回転中心とオブジェクト中心Cとを結ぶ直線とユーザUが向いている方向とで形成される角度α等が取得される。
 次いで、視点情報取得部101により、ユーザUの視点Pの位置に関する視点情報が取得される(S105)。
 続いて、頭部回転情報取得部105により、ユーザUの頭部の回転に伴う角速度ωと頭部の回転方向に関する頭部回転情報が取得される(S107)。頭部回転情報は、ユーザUの位置に対応する頭部回転中心とオブジェクト中心Cとを結ぶ直線と、位置関連情報取得部103で取得されたユーザUの頭部方向udとで形成される角の角度αの変化を算出して得られる。頭部回転情報取得部105は、所定の時刻tにおける角度αt1と、時刻tにおける角度αt2を検出し、検出された角度αt1とαt2を利用して角速度ω及び回転方向を算出する。
 頭部回転情報が取得された後、注視スコア算出部107により、オブジェクトobの注視スコアSが算出される(S109)。詳細には、S101で設定された算出式が使用され、S103~S107で取得された位置関連情報、視点情報及び頭部回転情報に基づいて、オブジェクトobに対する注視スコアSが算出される。
 その後、表示制御部111により、注視スコアSに応じた表示方法でオブジェクトobが強調表示される(S111)。S103~S111が順次繰り返され、オブジェクトobの注視スコアSが判定閾値S1th以上となったとき、注視状態であると判定される。更に、注視スコアSが属する情報表示レベルに応じた内容のオブジェクト情報が表示される。
 その後、例えば、ユーザUの視点Pが注視状態と判定されたオブジェクトobから外れると、注視スコアSが減少して注視状態が解除されてもよい。また、ユーザUの視点Pが、オブジェクト情報が表示されていたオブジェクトobから外れると、注視スコアSが減少して表示されていたオブジェクト情報が消去される。なお、ユーザUの視点Pがそのオブジェクトobから外れた直後に注視スコアSが初期値に戻ることで、この注視状態の解除及びオブジェクト情報の消去が実行されてもよい。
 ここまで、本実施形態に係る情報処理装置10の動作の一例について詳細に説明した。続いて、他の動作例について詳細に説明する。
<動作例2>
 動作例1では、視点情報取得部101により取得された視点情報に基づき、ユーザUの視点Pがオブジェクトob上にあるときに、注視スコア算出部107が注視スコアSを算出する場合を説明した。しかしながら、ユーザUの視点Pがオブジェクトob上になくとも、そのオブジェクトobについて注視スコアSが算出されてもよい。
 具体的には、図12に示すように、オブジェクト中心CからユーザUの視点Pまでの距離dを算出し、この距離dに応じて注視スコアSが算出されるようにしてもよい。例えば、注視スコア算出部107は、注視スコアSの算出に距離dを変数の一つとする算出式を設定し、距離dが小さいほど算出される注視スコアSが増大するようにすればよい。
 また、オブジェクト中心CからユーザUの視点Pまでの距離に限られず、図13に示すように、オブジェクトobの所定の位置、例えば、オブジェクトobの端部とユーザUの視点Pとの距離dに応じて注視スコアSは算出されてもよい。
 表示制御部111がオブジェクト情報を表示させる場合は、注視スコア算出部107は、情報表示閾値S2thを距離dや距離dに依存する値とすることで、表示制御部111は、オブジェクト情報の表示タイミングを制御してもよい。
 上記の方法で算出された注視スコアSを利用して、判定部109は注視判定をすることができる。注視判定に使用する判定閾値S1thは、距離dや距離d等に依存する値であってもよい。これにより、判定部109は、注視判定のタイミングを変更することができる。
<動作例3>
 また、注視スコア算出部107は、更に、位置関連情報の一つである、ユーザUとオブジェクトobとの間の離隔距離に応じて、注視スコアSを算出してもよい。
 具体的には、位置関連情報取得部103は、ユーザUとオブジェクトobとの間の離隔距離を位置関連情報として取得し、この位置関連情報を注視スコア算出部107に送信する。注視スコア算出部107は、離隔距離を変数の一つとした注視スコア算出式を設定し、離隔距離が小さいほど算出される注視スコアSが増大するように注視スコアSを算出してもよい。
 また、注視スコア算出部107は、位置関連情報の一つである、オブジェクトobに対するユーザUの速度v(すなわちユーザUとオブジェクトobとの離隔距離の時間変化)に応じて、注視スコアS算出してもよい。
 すなわち、位置関連情報取得部103は、オブジェクトobに対するユーザUの速度vを位置関連情報として取得し、この位置関連情報を注視スコア算出部107に送信する。注視スコア算出部107は、注視スコア算出式を速度vの関数とし、速度vが小さいほど算出される注視スコアS値が大きくなるように注視スコアSを算出すればよい。
 判定部109は、上記の方法で算出された注視スコアSを利用して注視判定をすることができる。判定部109は、注視判定に使用される判定閾値S1thを、離隔距離が反映された値とすることで、離隔距離に応じた注視判定をすることが可能である。
<動作例4>
 注視スコア算出部107は、更に、予め設定された、ユーザの特徴及びユーザの嗜好を特徴づける情報等を含むユーザ情報に基づいて注視スコアSを算出してもよい。
 ユーザ情報には、例えば、図14に示すような、性別、身長、趣味やユーザの予定等の情報が含まれる。当該ユーザ情報は、記憶部115、サーバ20等の情報を記憶する機能を有する装置に保存される。
 例えば、ユーザが本実施形態に係る情報処理装置を利用しながら買い物をする場合、注視スコア算出部107は、ユーザUの性別や身長等のユーザ情報に相応しい衣服等、ユーザ情報に関連するようなオブジェクトobに対して、高い注視スコアSが容易に算出されるような算出式を用いてユーザ毎に注視スコアSを算出することができる。
 ユーザの予定等もユーザ情報として登録されてもよく、そのユーザがその予定に必要とする物等、登録された予定に関連するものに対して注視スコアSが優先的に算出されてもよい。
 判定部109は、ユーザ情報に関連するオブジェクトobに対する注視判定の際、ユーザ情報と関連がないオブジェクトobと比較して、判定閾値S1thを低く設定することができる。
 オブジェクトobがユーザ情報と無関係のものである場合に、注視スコア算出部107は、注視スコアS上昇が小さい算出式を使用して注視スコアSを算出してもよい。同様に、判定部109は、オブジェクトobがユーザ情報と無関係である場合に、判定閾値S1thを高くして注視判定されるタイミングを遅延させてもよい。
<動作例5>
 注視スコア算出部107は、更に、図15に示すような、予め設定されたオブジェクト情報に基づいて注視スコアSを算出してもよい。また、例えば、オブジェクトobがショーウインドウに展示された商品であり、その商品を販売する会社が所定のカテゴリの商品や所定の商品の販売を促進させようとする場合、オブジェクト情報に優先度情報が設定されてもよい。注視スコア算出部107は、設定された優先度に応じてオブジェクト毎に算出式を設定して注視スコアSを算出することができる。
 判定部109も同様に、更に、オブジェクト情報に基づいて注視状態を判定することができる。判定部109は、オブジェクト情報に優先度が設定されているときは、優先度が高いカテゴリのオブジェクトob等に対する判定閾値S1thを、優先度が低い他のカテゴリのオブジェクトobと比較して低い値に変更してもよい。
<動作例6>
 注視スコア算出部107は、更に、履歴情報に基づいて注視スコアSを算出してもよい。具体的には、ユーザUが既に視認したことがあるオブジェクトobに対して注視スコアSが算出される場合、注視スコア算出部107は、そのオブジェクトobに対する累積の注視スコアS、注視状態であると判定された回数や頻度等の履歴情報に応じて注視スコア算出式及び、情報表示閾値S2thを変更してもよい。
 判定部109は、上記と同様にして、オブジェクト毎に判定閾値S1thを変更して注視判定をしてもよい。
 上記のような処理は、ユーザUが視認したことがあるオブジェクトobと同一のオブジェクトobに限られず、そのオブジェクトobと同一のカテゴリに属するオブジェクトに対して行われてもよい。
<動作例7>
 表示制御部111は、図16に示すように、オブジェクト情報や注視スコア等の履歴情報を参照して、所定の条件に合致するオブジェクト画像を表示させてもよい。具体的には、ユーザUは、図17に示すような、オブジェクトを注視した日時や場所、注視スコアS、オブジェクトobのカテゴリ等の様々な情報に基づいて、画像表示条件を設定する。そして、表示制御部111は、ユーザUに対して、その検索条件に合致したオブジェクト画像を、所定の表示方法で表示させることができる。例えば、図16に示すように、表示制御部111は、ユーザUが所定の期間内に視認した所定のカテゴリに含まれるオブジェクトobを、累積注視スコアSが高いオブジェクトobから順に表示させることができる。このとき、表示制御部111は、表示させたオブジェクト画像に対応したオブジェクト情報を表示させてもよい。
 このような機能により、ユーザUは、例えば、所定の期間内に注視したユーザUの興味があるカテゴリのオブジェクトobを後で振り返って確認することができる。
 なお、オブジェクト情報を表示する装置は情報を表示可能な装置であれば特段制限されず、本実施形態にかかる情報処理装置10にディスプレイを設け、表示制御部111は、そのディスプレイにオブジェクト情報を表示してもよく、例えば、スマートフォン、TV等に表示させてもよい。
 本実施形態では、主に静止したオブジェクトobに対する、注視スコアSの算出及び注視状態の判定の動作を主に説明したが、移動するオブジェクトに対して本開示を適用してもよい。
 例えば、プレイ中のゲームに表示される何かしらのターゲット等のオブジェクトobに対して、本実施形態に係る情報処理技術は利用されてもよい。
 本開示は、ユーザUの視点情報、オブジェクトobに対するユーザUの頭部の回転方向、頭部の回転に伴う角速度等の頭部関連情報に応じて注視の程度を検出し、注視判定する技術である。したがって、本開示は、例えば、AR(Augmented Reality)環境やVR(Virtual Reality)環境のような、視点だけではなく、頭部方向や位置で視野が変わるような環境において、移動しているオブジェクトに対して効果的にユーザの意図するタイミングで所定の内容を表示させることが可能である。
<<<第2の実施形態>>>
<<構成>>
 次いで、本開示に係る第2の実施形態について説明する。図18は、本実施形態に係る情報処理システム5の構成を示したブロック図である。情報処理システム5は、情報処理装置50と、サーバ60と、ネットワーク70とで構成される。ここでサーバ60及びネットワーク70は、情報処理システム1のサーバ20及びネットワーク30と基本的に同様であるため、ここでの説明は省略する。
<情報処理装置50>
 情報処理装置50は、撮像装置510と、表示制御装置550とを有する。本実施形態に係る撮像装置510は、情報処理装置50が配置される空間の少なくとも一部を撮像して撮像画像を生成する機能を有する。本実施形態に係る撮像装置510は、例えば、デジタルスチルカメラやデジタルビデオカメラ等のような、撮像機能を有する公知の撮像装置を使用することができる。本実施形態に係る表示制御装置550は、撮像装置510で取得された、撮像画像、位置関連情報、撮像空間内に存在する人物の視点情報等に基づいて、その空間内の所定の位置に表示させる情報の表示方法及び表示内容等を制御する機能を有する。
[撮像装置510]
 撮像装置510は、撮像空間内の位置関連情報及び視点情報等を取得する。
 撮像装置510により生成された撮像画像を利用した、撮像空間内に存在する人物の位置関連情報を取得する方法としては、公知の各種の技術を利用することが可能であり、例えば、特開2010-16743号公報、特許第5869883号公報、特開2017-182739号公報等に開示されているような、各種の位置推定技術を適宜利用することができる。
 また、撮像装置510により生成された撮像画像を利用した、撮像空間内に存在する人物の視点情報の抽出方法としては、公知の各種の技術を利用することが可能であり、例えば、特開2005-230049号公報、特開2015-153302号公報、特開2017-169685号公報等に開示されているような、各種の視線推定技術を適宜利用することができる。
 なお、本実施形態に係る位置関連情報及び視点情報等の取得方法は、あくまでも一例にすぎず、上記のものに限定されるものではない。
 また、撮像装置510は、後述する、頭部回転情報取得部551、注視スコア算出部553及び判定部555と同等の機能を有していてもよい。
[表示制御装置550]
 表示制御装置550は、図19に示すように、表示制御部557と、通信制御部559と、記憶部561とを少なくとも備え、必要に応じて、頭部回転情報取得部551と、注視スコア算出部553と、判定部555とを備えていてもよい。図19は、本実施形態に係る表示制御装置550の構成を示したブロック図である。
 頭部回転情報取得部551、注視スコア算出部553、判定部555、表示制御部557、通信制御部559、及び記憶部561は、第1の実施形態に係る、頭部回転情報取得部105、注視スコア算出部107、判定部109、表示制御部111、通信制御部113、及び記憶部115と基本的に同様であるため、ここでの説明は省略する。
 なお、表示制御装置550は、上記のような機能の全てを有している必要はなく、設置された空間に所定の情報を表示させる機能のみを有していてもよい。頭部回転情報取得部551、注視スコア算出部553及び判定部555は、撮像装置510もしくはサーバ60に同様の機能が備えられていれば、必ずしも表示制御装置550に設けられる必要はない。また、頭部回転情報取得部551、注視スコア算出部553及び判定部555は、サーバ60と、撮像装置510と、表示制御装置550とに分散させて実装してもよい。
<<動作>>
 続いて、本実施形態に係る情報処理システム5の動作について、図20及び図21を参照しながら説明する。図20は、本実施形態に係る情報処理システム5の動作の流れの一例を示す流れ図である。図21は、本実施形態に係る情報処理システム5の動作の一例を説明するための説明図である。
 まず、本実施形態に係る情報処理装置50の初期設定がされる(S201)。具体的には、注視スコアS算出のための初期設定がされる。詳細には、頭部回転情報に加え、位置関連情報の一つであり、撮像装置510を用いて生成された撮像画像から取得される、情報処理装置50が設置された空間に存在する人物とオブジェクトとの間の離隔距離や、視点情報と位置関連情報に基づいて算出されるオブジェクト中心からその人物の視点Pまでの距離dを反映可能な算出式が設定されてもよい。また、設定される算出式は、その人物の特徴及びその人物の嗜好を特徴づける情報等を含むユーザ情報等を反映してもよい。例えば、注視スコア算出式として、(1)式及び(2)式が用いられるように設定されてもよい。
 更に、かかる初期設定では、判定部555が注視状態を判定するための判定閾値が設定される。必要に応じて、表示制御部557により、オブジェクト情報を表示させるための情報表示閾値が設定されてもよい。
 判定閾値及び情報表示閾値は、本実施形態に係る情報処理装置50が扱うあらゆる情報に基づいて設定されてもよい。例えば、位置関連情報の一つである、情報処理装置50が設置された空間に存在する人物とオブジェクトとの間の離隔距離や、視点情報と位置関連情報に基づいて算出されたオブジェクト中心からその人物の視点Pまでの距離、その人物の特徴や嗜好を特徴づける情報等を含むユーザ情報を用いて、判定閾値及び情報表示閾値等は設定されてもよい。
 情報処理装置50の初期設定がされると、撮像装置510により、設置された空間の少なくとも一部が撮像され、撮像された画像を基に、空間に設置されたオブジェクトやその人物の位置に関する位置関連情報が取得される(S203)。具体的には、情報処理装置50が設置された空間に存在する人物の位置情報、オブジェクト中心、その人物とオブジェクトとの距離情報、及びその人物の頭部回転中心とオブジェクト中心とを結ぶ直線とその人物が向いている方向とで形成される角度情報等が取得される。次いで、撮像装置510により、公知の視点情報取得技術を用いて、取得された画像から視点情報が取得される(S205)。
 続いて、頭部回転情報取得部551により、情報処理装置50が設置された空間に存在する人物の頭部の回転に伴う角速度と角速度の変化に関する頭部回転情報が取得される(S207)。具体的には、頭部回転情報取得部551は、撮像装置510で取得された画像に表示されている人物の頭部の向きの経時変化を検出して、頭部回転情報を取得する。
 頭部回転情報が取得された後、注視スコア算出部553により、オブジェクトの注視スコアSが算出される(S209)。詳細には、S201で設定された算出式が使用され、S203~S207で取得された位置関連情報、視点情報及び頭部回転情報に基づいて、オブジェクトobに対する注視スコアSが算出される。
 そして、表示制御部557により、注視スコアSに応じた表示方法でオブジェクトが強調表示される(S211)。S203~S211が順次繰り返され、オブジェクトの注視スコアSが判定閾値以上となったとき、判定部555は、そのオブジェクトを情報処理装置50が設置された空間に存在する人物が注視している注視状態であると判定される。また、算出された注視スコアSが所定の情報表示閾値以上となり情報表示レベルに達したとき、図21に示すように、表示制御装置550により、その情報表示レベルに応じたオブジェクト情報が表示される。表示されるオブジェクト情報は、情報処理装置50が設置された空間に存在する人物が視認できる位置に表示されればよく、そのオブジェクト近傍に表示されてもよいし、所定のスクリーン等に表示されてもよい。なお、その人物が表示されるオブジェクト情報を見ている間は、注視スコア算出部553は、注視スコアを変化させず、一定値に維持してもよい。
 その後、例えば、情報処理装置50が設置された空間に存在する人物の視点Pが、注視状態と判定されたオブジェクト、又はオブジェクト情報が表示されたオブジェクトから移動すると、注視スコアSが減少して注視状態が解除され、表示されていたオブジェクト情報が消去されてもよい。
<<ハードウェア構成>>
 以上、本開示に係る実施形態について説明した。上述した情報処理は、ソフトウェアと、以下に説明する情報処理装置のハードウェアとの協働により実現される。
 図22は、本実施形態に係る情報処理装置のハードウェア構成を示したブロック図である。情報処理装置は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、ストレージ装置(HDD)911と、ネットワークインタフェース913とを備える。本実施形態に係る情報処理装置は、入力装置908と、表示装置909と、音声出力装置910と、ドライブ912とを有してもよい。
 CPU901は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。CPU901、ROM902及びRAM903とソフトウェアとの協働により、頭部回転情報取得部105、注視スコア算出部107、判定部109等の機能が実現され得る。
 ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905及び外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置908は、タッチパネル、ボタン、マイクロフォン、センサ、スイッチ及びレバーなどメンバーが情報を入力するための入力手段と、メンバーによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成され得る。
 表示装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置及びランプなどの表示装置を含む。
 ストレージ装置911は、本実施形態にかかる情報処理装置の記憶部の一例として構成されたデータ記憶用の装置である。ストレージ装置911は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置911は、例えば、HDD(Hard Disk Drive)やSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置911は、ストレージを駆動し、CPU911が実行するプログラムや各種データを記憶する。
 ドライブ912は、記憶媒体用リーダライタであり、情報処理装置に内蔵、あるいは外付けされる。ドライブ912は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体92に記録されている情報を読み出して、RAM903またはストレージ装置911に出力する。また、ドライブ912は、リムーバブル記憶媒体92に情報を書き込むこともできる。
 ネットワークインタフェース913は、例えば、ネットワーク30に接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース913は、無線LAN(Local Area Network)対応端末であっても、有線による通信を行うワイヤー端末であってもよい。
<<5.結び>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、又は、上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザの視点に関する視点情報を取得する視点情報取得部と、
 前記ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得する位置関連情報取得部と、
 前記ユーザの頭部の回転に伴う角速度と前記角速度の変化に関する頭部回転情報を取得する頭部回転情報取得部と、
 前記視点情報、前記位置関連情報及び前記頭部回転情報に応じてオブジェクト毎に算出され、前記オブジェクトに対する前記ユーザUの注視の程度を表す注視スコアに基づいて、前記ユーザが前記オブジェクトを注視しているかどうかを判定する判定部と、を備える情報処理装置。
(2)
 前記判定部は、前記オブジェクトの前記注視スコアが所定の閾値以上のときに、前記ユーザUが前記オブジェクトを注視している注視状態であると判定する、(1)に記載の情報処理装置。
(3)
 前記視点情報、前記位置関連情報及び前記頭部回転情報に基づいて、注視スコアを算出する注視スコア算出部を更に備える、(1)又は(2)に記載の情報処理装置。
(4)
 前記注視スコア算出部は、前回の算出タイミングで算出された注視スコアと、取得された前記視点情報、前記位置関連情報及び前記頭部回転情報に応じた注視スコア加算量とに基づき、前記注視スコアを算出する、(3)に記載の情報処理装置。
(5)
 前記注視スコア算出部は、前記視点情報と前記位置関連情報から算出された前記ユーザの視点と前記オブジェクトの所定の位置との間の距離に応じて前記注視スコアを算出する、(3)又は(4)に記載の情報処理装置。
(6)
 前記注視スコア算出部は、前記視点情報と前記位置関連情報から算出された前記ユーザの視点と前記オブジェクトの中心との間の距離に応じて前記注視スコアを算出する、(3)~(5)のいずれか1つに記載の情報処理装置。
(7)
 前記注視スコア算出部は、前記視点情報と前記位置関連情報から算出された前記オブジェクトの外側にある前記ユーザの視点と前記オブジェクトの端部との間の距離に応じて前記注視スコアを算出する、(3)~(6)のいずれか1つに記載の情報処理装置。
(8)
 前記注視スコア算出部は、予め設定された前記オブジェクトに関するオブジェクト情報に基づいて前記注視スコアを算出する、(3)~(7)のいずれか1つに記載の情報処理装置。
(9)
 前記注視スコア算出部は、予め設定された前記ユーザの嗜好を特徴づけるユーザ情報に基づいて前記注視スコアを算出する、(3)~(8)のいずれか1つに記載の情報処理装置。
(10)
 前記注視スコア算出部は、前記注視スコアの履歴に関する注視スコア履歴情報に基づいて、前記注視スコアを算出する、(3)~(9)のいずれか1つに記載の情報処理装置。
(11)
 前記位置関連情報は、前記ユーザと前記オブジェクトとの間の距離に関する距離情報を含み、
 前記注視スコア算出部は、前記距離情報に応じて前記注視スコアを算出する、(3)~(10)のいずれか1つに記載の情報処理装置。
(12)
 前記位置関連情報は、前記ユーザの前記オブジェクトに対する相対速度に関する相対速度情報を含み、
 前記注視スコア算出部は、前記相対速度情報に応じて前記注視スコアを算出する、(3)に記載の情報処理装置。
(13)
 前記オブジェクトの前記注視スコアに応じた、前記オブジェクトの表示方法及び前記注視スコアに応じて提供される前記オブジェクトに関する前記オブジェクトの表示内容の少なくともいずれか一方を制御する表示制御部をさらに備える、(1)~(12)のいずれか1つに記載の情報処理装置。
(14)
 前記判定部は、前記オブジェクトの前記注視スコアが所定の閾値以上のときに、前記ユーザが前記オブジェクトを注視している注視状態であると判定し、
 前記表示制御部は、前記注視状態にある前記オブジェクトについて、当該オブジェクトの前記注視スコアが所定の閾値以上であるときに、前記注視スコアに応じて提供される前記オブジェクトに関するオブジェクト情報を表示させる、(1)~(13)のいずれか1つに記載の情報処理装置。
(15)
 前記表示制御部は、前記注視スコアが所定の閾値以上であるときに、前記注視スコアに応じて提供される前記オブジェクトに関するオブジェクト情報を、前記ユーザの視界に重畳するように表示させる、(1)~(14)のいずれか1つに記載の情報処理装置。
(16)
 前記表示制御部は、前記注視スコアが所定の閾値以上である前記オブジェクトを拡大して表示させる、(1)~(15)のいずれか1つに記載の情報処理装置。
(17)
 各々の前記オブジェクトについて予め複数の情報が関連付けられたオブジェクト情報として格納されており、
 前記表示制御部は、前記オブジェクト情報の中から、所定の条件に応じて前記オブジェクト情報を出力させる、(1)~(16)のいずれか1つに記載の情報処理装置。
(18)
 前記オブジェクトの前記注視スコアに応じた、前記オブジェクトの表示方法及び前記注視スコアに応じて提供される前記オブジェクトに関する前記オブジェクトの表示内容の少なくともいずれか一方を制御する表示制御部をさらに備え、
 前記注視スコア算出部により算出された前記注視スコアを有する前記オブジェクトに関するオブジェクト履歴情報として格納し、
 前記表示制御部は、格納された前記オブジェクト履歴情報を参照して、所定の条件に合致する前記オブジェクト情報を出力させる、(1)~(17)のいずれか1つに記載の情報処理装置。
(19)
 ユーザの視点に関する視点情報を取得することと、
 前記ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得することと、
 前記ユーザの頭部の回転に伴う角速度と前記角速度の変化に関する頭部回転情報を取得することと、
 前記視点情報、前記位置関連情報及び前記頭部回転情報に応じてオブジェクト毎に算出され、前記オブジェクトに対する前記ユーザの注視の程度を表す注視スコアに基づいて、前記ユーザが前記オブジェクトを注視しているかどうかを判定すること、を含む、情報処理方法。
(20)
 コンピュータを、
 ユーザの視点に関する視点情報を取得する視点取得部、
 前記ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得する位置関連情報取得部、
 前記ユーザの頭部の回転に伴う角速度と前記角速度の変化に関する頭部回転情報を取得する頭部情報取得部、及び
 前記視点情報、前記位置関連情報及び前記頭部回転情報に応じてオブジェクト毎に算出され、前記オブジェクトに対する前記ユーザの注視の程度を表す注視スコアに基づいて、前記ユーザが前記オブジェクトを注視しているかどうかを判定する注視スコア算出部、
として機能させるためのプログラム。
 1、5      情報処理システム
 10、50    情報処理装置
 20、60    サーバ
 30、70    ネットワーク
 101      視点情報取得部
 103      位置関連情報取得部
 105、551  頭部回転情報取得部
 107、553  注視スコア算出部
 109、555  判定部
 111、557  表示制御部
 113、559  通信制御部
 115、561  記憶部
 510      撮像装置
 550      表示制御装置

Claims (20)

  1.  ユーザの視点に関する視点情報を取得する視点情報取得部と、
     前記ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得する位置関連情報取得部と、
     前記ユーザの頭部の回転に伴う角速度と前記角速度の変化に関する頭部回転情報を取得する頭部回転情報取得部と、
     前記視点情報、前記位置関連情報及び前記頭部回転情報に応じてオブジェクト毎に算出され、前記オブジェクトに対する前記ユーザの注視の程度を表す注視スコアに基づいて、前記ユーザが前記オブジェクトを注視しているかどうかを判定する判定部と、を備える情報処理装置。
  2.  前記判定部は、前記オブジェクトの前記注視スコアが所定の閾値以上のときに、前記ユーザが前記オブジェクトを注視している注視状態であると判定する、請求項1に記載の情報処理装置。
  3.  前記視点情報、前記位置関連情報及び前記頭部回転情報に基づいて、注視スコアを算出する注視スコア算出部を更に備える、請求項1に記載の情報処理装置。
  4.  前記注視スコア算出部は、前回の算出タイミングで算出された注視スコアと、取得された前記視点情報、前記位置関連情報及び前記頭部回転情報に応じた注視スコア加算量とに基づき、前記注視スコアを算出する、請求項3に記載の情報処理装置。
  5.  前記注視スコア算出部は、前記視点情報と前記位置関連情報から算出された前記ユーザの視点と前記オブジェクトの所定の位置との間の距離に応じて前記注視スコアを算出する、請求項4に記載の情報処理装置。
  6.  前記注視スコア算出部は、前記視点情報と前記位置関連情報から算出された前記ユーザの視点と前記オブジェクトの中心との間の距離に応じて前記注視スコアを算出する、請求項5に記載の情報処理装置。

  7.  前記注視スコア算出部は、前記視点情報と前記位置関連情報から算出された前記オブジェクトの外側にある前記ユーザの視点と前記オブジェクトの端部との間の距離に応じて前記注視スコアを算出する、請求項5に記載の情報処理装置。
  8.  前記注視スコア算出部は、予め設定された前記オブジェクトに関するオブジェクト情報に基づいて前記注視スコアを算出する、請求項4に記載の情報処理装置。
  9.  前記注視スコア算出部は、予め設定された前記ユーザの嗜好を特徴づけるユーザ情報に基づいて前記注視スコアを算出する、請求項4に記載の情報処理装置。
  10.  前記注視スコア算出部は、前記注視スコアの履歴に関する注視スコア履歴情報に基づいて、前記注視スコアを算出する、請求項4に記載の情報処理装置。
  11.  前記位置関連情報は、前記ユーザと前記オブジェクトとの間の距離に関する距離情報を含み、
     前記注視スコア算出部は、前記距離情報に応じて前記注視スコアを算出する、請求項4に記載の情報処理装置。
  12.  前記位置関連情報は、前記ユーザの前記オブジェクトに対する相対速度に関する相対速度情報を含み、
     前記注視スコア算出部は、前記相対速度情報に応じて前記注視スコアを算出する、請求項3に記載の情報処理装置。
  13.  前記オブジェクトの前記注視スコアに応じた前記オブジェクトの表示方法、及び前記注視スコアに応じて提供される前記オブジェクトに関する前記オブジェクトの表示内容の少なくともいずれか一方を制御する表示制御部をさらに備える、請求項1に記載の情報処理装置。
  14.  前記判定部は、前記オブジェクトの前記注視スコアが所定の閾値以上のときに、前記ユーザが前記オブジェクトを注視している注視状態であると判定し、
     前記表示制御部は、前記注視状態にある前記オブジェクトについて、当該オブジェクトの前記注視スコアが所定の閾値以上であるときに、前記注視スコアに応じて提供される前記オブジェクトに関するオブジェクト情報を表示させる、請求項13に記載の情報処理装置。
  15.  前記表示制御部は、前記注視スコアが所定の閾値以上であるときに、前記注視スコアに応じて提供される前記オブジェクトに関するオブジェクト情報を、前記ユーザの視界に重畳するように表示させる、請求項13に記載の情報処理装置。
  16.  前記表示制御部は、前記注視スコアが所定の閾値以上である前記オブジェクトを拡大して表示させる、請求項13に記載の情報処理装置。
  17.  各々の前記オブジェクトについて予め複数の情報が関連付けられたオブジェクト情報として格納されており、
     前記表示制御部は、前記オブジェクト情報の中から、所定の条件に応じて前記オブジェクト情報を出力させる、請求項13に記載の情報処理装置。
  18.  前記オブジェクトの前記注視スコアに応じた、前記オブジェクトの表示方法及び前記注視スコアに応じて提供される前記オブジェクトに関する前記オブジェクトの表示内容の少なくともいずれか一方を制御する表示制御部をさらに備え、
     前記注視スコア算出部により算出された前記注視スコアを有する前記オブジェクトに関するオブジェクト履歴情報として格納し、
     前記表示制御部は、格納された前記オブジェクト履歴情報を参照して、所定の条件に合致する前記オブジェクトの画像を含むオブジェクト情報を出力させる、請求項3に記載の情報処理装置。
  19.  ユーザの視点に関する視点情報を取得することと、
     前記ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得することと、
     前記ユーザの頭部の回転に伴う角速度と前記角速度の変化に関する頭部回転情報を取得することと、
     前記視点情報、前記位置関連情報及び前記頭部回転情報に応じてオブジェクト毎に算出され、前記オブジェクトに対する前記ユーザの注視の程度を表す注視スコアに基づいて、前記ユーザが前記オブジェクトを注視しているかどうかを判定すること、を含む、情報処理方法。
  20.  コンピュータを、
     ユーザの視点に関する視点情報を取得する視点取得部、
     前記ユーザと所定のオブジェクトとの位置に関連する位置関連情報を取得する位置関連情報取得部、
     前記ユーザの頭部の回転に伴う角速度と前記角速度の変化に関する頭部回転情報を取得する頭部情報取得部、及び
     前記視点情報、前記位置関連情報及び前記頭部回転情報に応じてオブジェクト毎に算出され、前記オブジェクトに対する前記ユーザの注視の程度を表す注視スコアに基づいて、前記ユーザが前記オブジェクトを注視しているかどうかを判定する注視スコア算出部、
    として機能させるためのプログラム。
PCT/JP2018/041436 2018-01-04 2018-11-08 情報処理装置、情報処理方法及びプログラム WO2019135313A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/958,344 US11314326B2 (en) 2018-01-04 2018-11-08 Information processing device, information processing method, and program for determining a user gaze
EP18898932.1A EP3736666B1 (en) 2018-01-04 2018-11-08 Information processing device, information processing method and program
CN201880083778.XA CN111527466A (zh) 2018-01-04 2018-11-08 信息处理装置、信息处理方法和程序
JP2019563929A JP7272278B2 (ja) 2018-01-04 2018-11-08 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018000262 2018-01-04
JP2018-000262 2018-01-11

Publications (1)

Publication Number Publication Date
WO2019135313A1 true WO2019135313A1 (ja) 2019-07-11

Family

ID=67144428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/041436 WO2019135313A1 (ja) 2018-01-04 2018-11-08 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US11314326B2 (ja)
EP (1) EP3736666B1 (ja)
JP (1) JP7272278B2 (ja)
CN (1) CN111527466A (ja)
WO (1) WO2019135313A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051565A (ja) * 2019-09-25 2021-04-01 株式会社Jvcケンウッド 表示装置、表示方法、及び表示プログラム
WO2022114177A1 (ja) * 2020-11-30 2022-06-02 株式会社Jvcケンウッド 表示装置、表示方法及びプログラム
WO2022123663A1 (ja) * 2020-12-08 2022-06-16 マクセル株式会社 画像表示装置および画像表示方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11354026B1 (en) * 2020-01-28 2022-06-07 Apple Inc. Method and device for assigning an operation set
US11625973B2 (en) * 2020-04-22 2023-04-11 Igt Multi-user gaze detection at electronic gaming devices

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348215A (ja) * 1999-06-02 2000-12-15 Fujitsu Ltd 仮想現実感マルチウィンドウシステムおよび表計算アプリケーションソフトウェア
JP2005230049A (ja) 2004-02-17 2005-09-02 National Univ Corp Shizuoka Univ 距離イメージセンサを用いた視線検出装置
JP2006154890A (ja) * 2004-11-25 2006-06-15 Olympus Corp 情報端末装置及びシステム
JP2010016743A (ja) 2008-07-07 2010-01-21 Olympus Corp 測距装置、測距方法、測距プログラム又は撮像装置
JP2014086063A (ja) * 2012-10-29 2014-05-12 Kyocera Corp 電子機器、視線入力プログラムおよび視線入力方法
JP2015153302A (ja) 2014-02-18 2015-08-24 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
WO2016002445A1 (ja) * 2014-07-03 2016-01-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5869883B2 (ja) 2010-06-17 2016-02-24 パナソニック株式会社 画像処理装置
JP2016035742A (ja) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2016151798A (ja) 2015-02-16 2016-08-22 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2017169685A (ja) 2016-03-22 2017-09-28 日本電気株式会社 視線推定装置及び視線推定方法
JP2017182739A (ja) 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP6236691B1 (ja) * 2016-06-30 2017-11-29 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8717292B2 (en) * 2007-08-07 2014-05-06 Osaka Electro-Communication University Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
JP5602708B2 (ja) * 2011-11-09 2014-10-08 楽天株式会社 注視位置推定システム、注視位置推定システムの制御方法、注視位置推定装置、注視位置推定装置の制御方法、プログラム、及び情報記憶媒体
CN104145234A (zh) * 2012-03-07 2014-11-12 索尼公司 信息处理装置、信息处理方法以及程序
US9400553B2 (en) * 2013-10-11 2016-07-26 Microsoft Technology Licensing, Llc User interface programmatic scaling
EP3120221A1 (en) * 2014-03-17 2017-01-25 ITU Business Development A/S Computer-implemented gaze interaction method and apparatus
US9804753B2 (en) * 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
US9723298B2 (en) * 2014-06-13 2017-08-01 International Business Machines Corporation Managing a display
US20170142486A1 (en) * 2014-07-18 2017-05-18 Sony Corporation Information processing device, display device, information processing method, program, and information processing system
US9779633B2 (en) * 2014-08-08 2017-10-03 Greg Van Curen Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
US9599821B2 (en) * 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
US9277857B1 (en) * 2014-11-06 2016-03-08 Bertec Corporation System for testing and/or training the vision of a subject
US9517008B1 (en) * 2014-11-06 2016-12-13 Bertec Corporation System and method for testing the vision of a subject
US9066667B1 (en) * 2014-11-06 2015-06-30 Bertec Corporation System and method for testing dynamic visual acuity and/or gaze stabilization
JP5961736B1 (ja) 2015-08-17 2016-08-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP6298432B2 (ja) * 2015-10-19 2018-03-20 株式会社コロプラ 画像生成装置、画像生成方法、及び画像生成プログラム
JP6738641B2 (ja) 2016-04-11 2020-08-12 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
US11122999B2 (en) * 2016-06-30 2021-09-21 Cornell University Optokinesys
CN106155326A (zh) * 2016-07-26 2016-11-23 北京小米移动软件有限公司 虚拟现实通讯中的对象识别方法和装置、虚拟现实设备
CN107844190B (zh) * 2016-09-20 2020-11-06 腾讯科技(深圳)有限公司 基于虚拟现实vr设备的图像展示方法及装置
US10438418B2 (en) * 2016-12-08 2019-10-08 Colopl, Inc. Information processing method for displaying a virtual screen and system for executing the information processing method
US10769797B2 (en) * 2017-01-05 2020-09-08 Samsung Electronics Co., Ltd. Virtual reality experience sharing
JP6266814B1 (ja) * 2017-01-27 2018-01-24 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
KR20240046613A (ko) * 2017-04-19 2024-04-09 매직 립, 인코포레이티드 웨어러블 시스템을 위한 멀티모달 임무 실행 및 텍스트 편집
JP2019054385A (ja) * 2017-09-14 2019-04-04 カシオ計算機株式会社 集音機器、補聴器、及び集音機器セット
US10890968B2 (en) * 2018-05-07 2021-01-12 Apple Inc. Electronic device with foveated display and gaze prediction
KR20200091988A (ko) * 2019-01-23 2020-08-03 삼성전자주식회사 장치를 제어하기 위한 방법 및 그 전자 장치

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348215A (ja) * 1999-06-02 2000-12-15 Fujitsu Ltd 仮想現実感マルチウィンドウシステムおよび表計算アプリケーションソフトウェア
JP2005230049A (ja) 2004-02-17 2005-09-02 National Univ Corp Shizuoka Univ 距離イメージセンサを用いた視線検出装置
JP2006154890A (ja) * 2004-11-25 2006-06-15 Olympus Corp 情報端末装置及びシステム
JP2010016743A (ja) 2008-07-07 2010-01-21 Olympus Corp 測距装置、測距方法、測距プログラム又は撮像装置
JP5869883B2 (ja) 2010-06-17 2016-02-24 パナソニック株式会社 画像処理装置
JP2014086063A (ja) * 2012-10-29 2014-05-12 Kyocera Corp 電子機器、視線入力プログラムおよび視線入力方法
JP2015153302A (ja) 2014-02-18 2015-08-24 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
WO2016002445A1 (ja) * 2014-07-03 2016-01-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2016035742A (ja) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2016151798A (ja) 2015-02-16 2016-08-22 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2017169685A (ja) 2016-03-22 2017-09-28 日本電気株式会社 視線推定装置及び視線推定方法
JP2017182739A (ja) 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP6236691B1 (ja) * 2016-06-30 2017-11-29 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3736666A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051565A (ja) * 2019-09-25 2021-04-01 株式会社Jvcケンウッド 表示装置、表示方法、及び表示プログラム
JP7363271B2 (ja) 2019-09-25 2023-10-18 株式会社Jvcケンウッド 表示装置、表示方法、及び表示プログラム
WO2022114177A1 (ja) * 2020-11-30 2022-06-02 株式会社Jvcケンウッド 表示装置、表示方法及びプログラム
WO2022123663A1 (ja) * 2020-12-08 2022-06-16 マクセル株式会社 画像表示装置および画像表示方法

Also Published As

Publication number Publication date
EP3736666B1 (en) 2024-06-05
EP3736666A1 (en) 2020-11-11
JPWO2019135313A1 (ja) 2020-12-17
US11314326B2 (en) 2022-04-26
CN111527466A (zh) 2020-08-11
EP3736666A4 (en) 2021-03-03
US20210064129A1 (en) 2021-03-04
JP7272278B2 (ja) 2023-05-12

Similar Documents

Publication Publication Date Title
WO2019135313A1 (ja) 情報処理装置、情報処理方法及びプログラム
US9734636B2 (en) Mixed reality graduated information delivery
JP2022118183A (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US9289681B2 (en) Suggested actions within a virtual environment
US9626801B2 (en) Visualization of physical characteristics in augmented reality
US20170092002A1 (en) User interface for augmented reality system
US20170069143A1 (en) Indicating out-of-view augmented reality images
US9348411B2 (en) Object display with visual verisimilitude
US20170255256A1 (en) Head-mounted display controlled by sightline, method for controlling same, and computer program for controlling same
US8453061B2 (en) Suggestion of user actions in a virtual environment based on actions of other users
US10438262B1 (en) Method and device for implementing a virtual browsing experience
US11854148B2 (en) Virtual content display opportunity in mixed reality
KR20160071404A (ko) 사용자 인터페이스 프로그래밍적 스케일링
US20190035152A1 (en) Augmented reality sensor
JP2016514865A (ja) 現実世界の分析可視化
US9619707B2 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
US20190243461A1 (en) Cable movable region display device, cable movable region display method, and cable movable region display program
JP2017182628A (ja) 拡張現実ユーザインタフェース適用装置および制御方法
US11640700B2 (en) Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment
US20180158242A1 (en) Information processing method and program for executing the information processing method on computer
WO2023093329A1 (zh) 信息输出方法、头戴式显示设备及可读存储介质
JP2023097301A5 (ja)
EP3695622B1 (en) Adaptation of presentation speed
WO2020113185A1 (en) Control system for a three dimensional environment
KR102283257B1 (ko) 워크 도네이션을 위한 사용자 단말 장치, 서버, 방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18898932

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019563929

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018898932

Country of ref document: EP

Effective date: 20200804