WO2017110732A1 - 主ビーム方向決定装置、主ビーム方向決定方法及びプログラム - Google Patents

主ビーム方向決定装置、主ビーム方向決定方法及びプログラム Download PDF

Info

Publication number
WO2017110732A1
WO2017110732A1 PCT/JP2016/087750 JP2016087750W WO2017110732A1 WO 2017110732 A1 WO2017110732 A1 WO 2017110732A1 JP 2016087750 W JP2016087750 W JP 2016087750W WO 2017110732 A1 WO2017110732 A1 WO 2017110732A1
Authority
WO
WIPO (PCT)
Prior art keywords
main beam
image
beam direction
user
region
Prior art date
Application number
PCT/JP2016/087750
Other languages
English (en)
French (fr)
Inventor
一政 千種
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to JP2017558115A priority Critical patent/JP6409139B2/ja
Priority to US15/776,245 priority patent/US10758822B2/en
Priority to EP16878621.8A priority patent/EP3396869B1/en
Publication of WO2017110732A1 publication Critical patent/WO2017110732A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/323Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections between game devices with different hardware characteristics, e.g. hand-held game devices connectable to game consoles or arcade machines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0617Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal for beam forming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/08Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the receiving station
    • H04B7/0868Hybrid systems, i.e. switching and combining
    • H04B7/088Hybrid systems, i.e. switching and combining using beam selection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • A63F2300/1031Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection using a wireless connection, e.g. Bluetooth, infrared connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera

Definitions

  • the present invention relates to a main beam direction determination device, a main beam direction determination method, and a program.
  • a technique for determining a direction having a high communication quality when communication is performed as a main beam direction used for communication from a plurality of candidates for the main beam direction is known.
  • An example of such a technique is sector level sweep in beam forming.
  • the main beam direction is determined from these candidates. To determine the main beam direction.
  • the main beam direction candidates can be narrowed down more appropriately as described above, but the main beam direction is based on the fact that the user's head moves in a situation where the user is playing a game in the prior art. The candidates for were not narrowed down.
  • the present invention has been made in view of the above circumstances, and one of the purposes thereof is a candidate for the main beam direction based on the fact that the direction of movement of the user's head is biased in the situation of playing the game. Is to provide a main beam direction determination device, a main beam direction determination method, and a program.
  • a main beam direction determination device includes an image acquisition unit that acquires an image including an image of a user wearing a head-mounted display, and the user's image in the image.
  • a secondary candidate selection unit that selects a secondary candidate, and a main beam direction determination unit that determines a main beam direction in communication with the head mounted display from among the secondary candidates, and the region includes , Having a convex part.
  • the region is a cross-shaped region.
  • the region is symmetrical.
  • the image processing device further includes a center line specifying unit that specifies a center line of the image of the user's head in the image, and the region specifying unit specifies a region that is symmetrical with respect to the center line. May be.
  • the region occupied by the convex portion includes a region above the image of the user's head.
  • the size of the area is proportional to the size of the image of the user's head.
  • the main beam direction determination method includes a step of acquiring an image including an image of a user wearing a head-mounted display, and the user's posture in the image extends vertically. Identifying a region that includes the image of the user's head in step, and selecting a secondary candidate that is a direction associated with a position in the region from a plurality of primary candidates in the main beam direction; And determining a main beam direction in communication with the head mounted display from among the secondary candidates, and the region has a convex portion.
  • the program according to the present invention includes a procedure for acquiring an image including an image of a user wearing a head mounted display, and the user's head when the posture of the user in the image extends vertically.
  • a procedure for identifying a region including a part image, a procedure for selecting a secondary candidate that is a direction associated with a position in the region from a plurality of primary candidates in the main beam direction, and among the secondary candidates To causing the computer to execute a procedure for determining a main beam direction in communication with the head mounted display, and the region has a convex portion.
  • FIG. 1 is a diagram showing an example of the overall configuration of a video display system 10 according to an embodiment of the present invention.
  • FIG. 2A is a diagram illustrating an example of the configuration of the head mounted display (HMD) 12 according to the present embodiment.
  • FIG. 2B is a diagram illustrating an example of the configuration of the relay device 16 according to the present embodiment.
  • HMD head mounted display
  • the video display system 10 includes an HMD 12, an entertainment device 14, a relay device 16, a display 18, a camera microphone unit 20, and a controller 22.
  • the HMD 12 includes a control unit 30, a storage unit 32, a communication unit 34, an input / output unit 36, a display unit 38, a sensor unit 40, and an audio output unit 42, for example, as shown in FIG. 2A.
  • the control unit 30 is a program control device such as a microprocessor that operates according to a program installed in the HMD 12, for example.
  • the storage unit 32 is, for example, a storage element such as a ROM or a RAM.
  • the storage unit 32 stores a program executed by the control unit 30.
  • the communication unit 34 is a communication interface such as a wireless LAN module with a built-in array antenna. In the present embodiment, as illustrated in FIG. 1, the communication unit 34 is disposed on the upper front side of the HMD 12.
  • the input / output unit 36 is an input / output port such as an HDMI (registered trademark) (High-Definition Multimedia Interface) port, a USB port, an AUX port, or the like.
  • HDMI registered trademark
  • AUX AUX port
  • the display unit 38 is a display such as a liquid crystal display or an organic EL display disposed on the front side of the HMD 12 and displays a video generated by the entertainment device 14.
  • the display unit 38 is housed in the housing of the HMD 12.
  • the display unit 38 may receive a video signal output from the entertainment device 14 and relayed by the relay device 16 and output a video represented by the video signal.
  • the display unit 38 according to the present embodiment can display a three-dimensional image by displaying a left-eye image and a right-eye image, for example.
  • the display unit 38 may not be able to display a three-dimensional image and can only display a two-dimensional image.
  • the sensor unit 40 is a sensor such as an acceleration sensor or a motion sensor.
  • the sensor unit 40 outputs measurement results such as the rotation amount and movement amount of the HMD 12 to the control unit 30 at a predetermined frame rate.
  • the sound output unit 42 is, for example, a headphone or a speaker, and outputs sound represented by sound data generated by the entertainment device 14.
  • the audio output unit 42 receives an audio signal output from the entertainment device 14 and relayed by the relay device 16, for example, and outputs the audio represented by the audio signal.
  • the entertainment device 14 is a computer such as a game console, a DVD player, a Blu-ray (registered trademark) player, or the like.
  • the entertainment device 14 according to the present embodiment generates video and audio by, for example, executing a stored game program or reproducing content recorded on an optical disc. Then, the entertainment device 14 according to the present embodiment outputs a video signal representing the generated video and an audio signal representing the generated audio to the HMD 12 and the display 18 via the relay device 16.
  • the relay device 16 is a computer that relays video signals and audio signals output from the entertainment device 14 and outputs them to the HMD 12 and the display 18.
  • the relay device 16 includes a control unit 50, a storage unit 52, a communication unit 54, and an input / output unit 56, for example, as shown in FIG. 2B.
  • the control unit 50 is a program control device such as a CPU that operates in accordance with, for example, a control circuit or a program installed in the relay device 16.
  • the storage unit 52 is, for example, a storage element such as a ROM or a RAM.
  • the storage unit 52 stores a program executed by the control unit 50.
  • the communication unit 54 is, for example, a communication interface such as a wireless LAN module with a built-in array antenna. In the present embodiment, as shown in FIG. 1, a communication unit 54 is included on the front side of the relay device 16.
  • the input / output unit 56 is an input / output port such as an HDMI (registered trademark) (High-Definition Multimedia Interface) port or a USB port.
  • HDMI registered trademark
  • High-Definition Multimedia Interface High-Definition Multimedia Interface
  • the display 18 is, for example, a liquid crystal display, and displays a video or the like represented by a video signal output from the entertainment device 14.
  • the camera microphone unit 20 includes, for example, a camera 20a that outputs an image obtained by imaging a subject to the entertainment device 14, and a microphone that acquires surrounding audio, converts the audio to audio data, and outputs the audio data to the entertainment device 14. 20b is included.
  • the camera 20a according to this embodiment is a stereo camera.
  • the HMD 12 and the relay device 16 can mutually transmit and receive data by wireless communication, for example.
  • the entertainment device 14 and the relay device 16 are connected via, for example, an HDMI cable or a USB cable.
  • the relay device 16 and the display 18 are connected via, for example, an HDMI cable.
  • the entertainment apparatus 14 and the camera microphone unit 20 are connected via, for example, an AUX cable.
  • the controller 22 is an operation input device for performing operation input to the entertainment device 14.
  • the user can perform various operation inputs using the controller 22 by pressing a direction key or button provided in the controller 22 or tilting an operation stick.
  • the controller 22 outputs input data associated with the operation input to the entertainment device 14.
  • the controller 22 according to the present embodiment includes a USB port. And the controller 22 can output input data to the entertainment apparatus 14 with a wire by connecting with the entertainment apparatus 14 with a USB cable.
  • the controller 22 according to the present embodiment includes a wireless communication module and the like, and can output input data to the entertainment apparatus 14 wirelessly.
  • wireless communication using millimeter waves such as a 60 GHz band is performed between the HMD 12 and the relay device 16. Since millimeter waves are very straight ahead, it is difficult to ensure communication quality unless the main beam direction is adjusted appropriately. In the present embodiment, the communication quality is ensured by adjusting the direction in which the communication quality is high as the main beam direction.
  • Beam forming is known as an example of a technique for setting the main beam direction.
  • the beam forming process includes a sector level sweep process and a beam refinement process.
  • the main beam direction of the HMD 12 is determined as the direction of high communication quality when communication is performed from among a plurality of candidates in the main beam direction.
  • Examples of the communication quality in the present embodiment include a signal-to-noise ratio (S / N ratio) and reception intensity.
  • S / N ratio signal-to-noise ratio
  • reception intensity reception intensity
  • Sector level sweep and beam refinement are performed by communication (negotiation) between the communication unit 34 of the HMD 12 and the communication unit 54 of the relay apparatus.
  • FIG. 3 is a diagram illustrating an example of a state in which communication is performed between the HMD 12 worn by the user 60 and the relay device 16.
  • a direction d ⁇ b> 1 that is the main beam direction of the relay device 16 is illustrated.
  • the main beam direction is expressed by a combination of an angle ⁇ and an angle ⁇ .
  • a combination of the angle ⁇ and the angle ⁇ is referred to as a main beam angle parameter ( ⁇ , ⁇ ).
  • FIG. 4 is an explanatory diagram illustrating an example of a correspondence relationship between the combination of the angle ⁇ and the angle ⁇ and the main beam direction.
  • the direction perpendicular to the surface on which the array antenna built in the relay device 16 is arranged, and the direction from the rear side to the front side of the relay device 16 is the positive X-axis direction in FIG. It shall be equivalent.
  • the relay device 16 is arranged so that the front side faces the HMD 12.
  • the direction along the plane on which the array antenna built in the relay device 16 is arranged, and the direction from the right side to the left side of the relay device 16 (the direction from the left to the right in FIG. 3) is shown in FIG. 4 corresponds to the positive Y-axis direction.
  • the direction along the plane where the array antenna built in the relay device 16 is arranged, and the direction rotated 90 degrees counterclockwise from the positive direction of the Y axis when viewed from the positive direction of the X axis The direction.
  • an angle ⁇ that is positive in the counterclockwise direction with respect to the X axis when viewed from the positive direction of the Z axis is defined as an angle ⁇ .
  • an angle formed with the positive Z-axis direction is defined as an angle ⁇ .
  • the main beam angle parameter ( ⁇ , ⁇ ) corresponding to the positive direction of the X axis is (0, +90).
  • the unit of the value of the main beam angle parameter is “degree”.
  • FIG. 5 is a diagram illustrating an example of a captured image 62 captured by the camera 20a according to the present embodiment.
  • the captured image 62 illustrated in FIG. 5 includes an image of the user 60 wearing the HMD 12.
  • the camera 20a generates a captured image 62 at a predetermined frame rate.
  • the right direction of the captured image 62 shown in FIG. 5 is the x-axis positive direction, and the downward direction is the y-axis positive direction.
  • a combination of the x coordinate and the y coordinate representing the position in the captured image 62 is referred to as a captured image coordinate parameter (x, y).
  • the position in the captured image 62 and the main beam direction are associated one to one.
  • the main beam angle parameter ( ⁇ , ⁇ ) and the captured image coordinate parameter (x, y) are associated one-to-one.
  • each of the positions indicated by x is referred to as a primary candidate sector corresponding position.
  • the main beam direction candidate associated with the primary candidate sector corresponding position is referred to as a primary candidate sector.
  • FIG. 5 shows primary candidate sector corresponding positions associated with each of the 120 primary candidate sectors.
  • FIG. 5 shows a narrowed area R that is a boundary of whether or not it is a secondary candidate sector.
  • a position associated with the secondary candidate sector which is a part of the positions corresponding to the primary candidate sectors indicated by x, is referred to as a secondary candidate sector corresponding position.
  • six of the 120 primary candidate sector corresponding positions are selected as secondary candidate sector corresponding positions.
  • the narrowing-down region R is, for example, a cross-shaped region that is bilaterally symmetric, a rectangular central portion 64, a rectangular convex portion 66 extending upward from the central portion 64, and a lower portion from the central portion 64. And has a rectangular protrusion 68 extending in the direction.
  • region R which concerns on this embodiment is the head of the user 60 in case the x coordinate of each center of the center part 64, the convex part 66, and the convex part 68 extends
  • the center line of the head of the user 60 in the captured image 62 may be specified by a known skeleton determination technique or face recognition technique. Then, the x coordinate of the center of each of the central portion 64, the convex portion 66, and the convex portion 68 may be the same as the x coordinate of the center line specified as described above.
  • the horizontal length L1 of the convex portions 66 and the convex portions 68 is the same as the horizontal length of the image of the head of the user 60, and the horizontal length L2 of the central portion 64 is the user 60. Is set to be a predetermined multiple (for example, three times) of the horizontal length of the image of the head.
  • the size of the narrowing-down area R according to the present embodiment is proportional to the size of the image of the head of the user 60.
  • the upper side of the convex portion 66 in the narrowed-down region R is set to a position above the center of the image of the head of the user 60 by a length L3 (for example, a length L3 corresponding to 50 cm in real space).
  • the length L3 corresponding to 50 cm in the real space can be specified based on, for example, the vertical length of the image of the user 60 in the captured image 62 and data indicating the height of the user 60.
  • the lower side of the convex portion 66 (the upper side of the central portion 64) in the narrowed-down region R is set to the position of the image of the top of the user 60.
  • the convex part 66 may include a region above the image of the head of the user 60.
  • the upper side of the convex portion 68 (the lower side of the central portion 64) in the narrowed-down region R is set to the position of the chest image of the user 60 or slightly below the position. Further, the lower side of the convex portion 68 in the narrowed-down region R is set to the position of the waist image of the user 60.
  • the position of the chest image and the position of the waist image described above can be specified by, for example, a skeleton determination technique. Even when the user 60 is playing a game while sitting, the narrowed-down region R having the shape described above may be set.
  • the method for specifying the narrowed-down region R is not limited to the above-described method.
  • the length L3 described above, the vertical length L4 of the convex portion 66, the vertical length L5 of the convex portion 68, and the vertical length L6 of the central portion 64 are determined by face recognition technology.
  • the length may be a predetermined multiple of the vertical length of the specified face.
  • These lengths L3 to L6 may be set in proportion to the vertical length (that is, the height) of the image of the user 60.
  • the narrowed-down area R is proportional to the size (vertical length and horizontal length) of the image of the head of the user 60 in the captured image 62 in a predetermined shape area (for example, a cross-shaped area). It is also possible to use a region that is enlarged in a similar manner.
  • the data format for managing the narrowed area R is not particularly limited.
  • the position of the narrowed-down region R in the captured image 62 may be managed by the coordinate value of the center of the image of the head of the user 60 and the parameters indicating the lengths L1 to L6.
  • the position of the narrowed area R in the captured image 62 may be managed by the coordinate value of each vertex included in the narrowed area R.
  • the narrowed region R is a region obtained by enlarging a region having a predetermined shape
  • the position in the captured image 62 may be managed.
  • a captured image 62 of a frame in which the posture of the user 60 extends in the vertical direction is specified.
  • the above-described narrowed-down region R is set in the captured image 62.
  • the position corresponding to the primary candidate sector in the set narrowing area R is selected as the position corresponding to the secondary candidate sector.
  • Communication when communication is performed with the direction associated with each of the secondary candidate sectors associated with the selected position corresponding to the secondary candidate sector being negotiated between the HMD 12 and the relay device 16 as the main beam direction. Quality is confirmed. Then, the direction associated with the secondary candidate sector with the highest communication quality is determined as the main beam direction.
  • the main beam direction candidates for confirming the communication quality as described above are limited to a part corresponding to the position of the image of the head of the user 60 in the captured image 62. For this reason, in this embodiment, the number of sectors whose communication quality is confirmed by negotiation between the HMD 12 and the relay device 16 is smaller than that of the conventional beam forming. Therefore, according to the present embodiment, the main beam direction is specified in a shorter time than the conventional beam forming.
  • the direction in which the head of the user 60 moves is biased.
  • the head of the user 60 moves up and down by jumping or squatting, or the head of the user 60 moves back and forth and left and right by tilting the neck or body.
  • the possibility that the head of the user 60 moves in an oblique direction such as upper left, upper right, lower left, and lower right is low.
  • the main beam direction candidates for confirming the communication quality are narrowed down to the shape having the convex portions 66 and the convex portions 68 as shown in FIG.
  • the secondary candidate sectors are limited to the secondary candidate sectors associated with the positions corresponding to the secondary candidate sectors in the region R.
  • the main beam direction candidates are narrowed down in consideration of the bias in the direction in which the head of the user 60 moves in the situation where the game is being played.
  • FIG. 7 shows an example of a photographed image 62 when the user 60 tilts the head to the left.
  • FIG. 8 shows an example of a captured image 62 when the user 60 tilts his / her body to the left. 7 and 8 also, the image of the head of the user 60 is arranged in the narrowed-down area R. Therefore, even if the head of the user 60 moves, according to the present embodiment, the communication quality is high by selecting the main beam direction from the secondary candidate sectors associated with the narrowed down region R. The main beam direction can be selected.
  • the relay device 16 according to the present embodiment plays a role as a main beam direction determining device that determines the main beam direction of the relay device 16 from a plurality of primary candidates in the main beam direction.
  • FIG. 9 is a functional block diagram illustrating an example of functions implemented in the relay device 16 according to the present embodiment. Note that the relay device 16 according to the present embodiment does not have to include all the functions illustrated in FIG. 9, and may include functions other than the functions illustrated in FIG. 9.
  • the relay device 16 functionally includes, for example, a primary candidate sector data storage unit 70, an image acquisition unit 72, an attitude specifying unit 74, a narrowed area specifying unit 76, and a secondary A candidate sector selection unit 78, a sector level sweep processing execution unit 80, and a beam refinement processing execution unit 82 are included.
  • the primary candidate sector data storage unit 70 is mainly implemented by the storage unit 52.
  • the image acquisition unit 72 mainly includes the control unit 50 and the input / output unit 56.
  • the attitude specifying unit 74, the narrowed down area specifying unit 76, and the secondary candidate sector selecting unit 78 are mainly implemented by the control unit 50.
  • the sector level sweep processing execution unit 80 and the beam refinement processing execution unit 82 are mainly implemented by the control unit 50 and the communication unit 54.
  • the above functions may be implemented by causing the control unit 50 to execute a program that is installed in the relay device 16 that is a computer and that includes commands corresponding to the above functions.
  • This program is supplied to the relay device 16 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet.
  • the primary candidate sector data storage unit 70 stores, for example, primary candidate sector data indicating primary candidate sectors.
  • the primary candidate sector data includes a primary candidate sector ID that is identification information of the primary candidate sector data, the main beam angle parameters ( ⁇ , ⁇ ), and , And the above-described in-photograph image coordinate parameter (x, y).
  • the primary candidate sector data storage unit 70 stores a plurality of primary candidate sector data as shown in FIG. Further, the primary candidate sector indicated by the primary candidate sector data is associated with an angle with respect to the reference direction (for example, the positive direction of the X axis) by the main beam angle parameter ( ⁇ , ⁇ ).
  • the main beam angle parameters ( ⁇ , ⁇ ) and the captured image coordinate parameters (x, y) are associated one-to-one.
  • the angle ⁇ of the main beam angle parameters ( ⁇ , ⁇ ) and the x coordinate of the captured image coordinate parameters (x, y) have a one-to-one correspondence. Attached. Further, the angle ⁇ of the main beam angle parameters ( ⁇ , ⁇ ) and the y coordinate of the in-photograph image coordinate parameters (x, y) are associated one-to-one.
  • the image acquisition unit 72 acquires an image including an image of the user 60 wearing the HMD 12.
  • the image acquisition unit 72 acquires a captured image 62 illustrated in FIGS. 5, 7, and 8 captured by the camera 20 a at a predetermined frame rate at the frame rate.
  • the posture specifying unit 74 specifies the posture of the user 60 based on the captured image 62 acquired by the image acquisition unit 72, for example.
  • the posture specifying unit 74 may specify whether or not the posture of the user 60 extends in the vertical direction by posture determination based on a known skeleton determination technique, for example.
  • the narrowed-down area specifying unit 76 specifies an area in the captured image 62 that includes an image of the head of the user 60 when the posture of the user 60 extends in the vertical direction.
  • the narrowing-down area specifying unit 76 specifies that the posture of the user 60 extends in the vertical direction based on the captured image 62 acquired by the image acquiring unit 72.
  • the above-described narrowed region R is specified.
  • the narrowed down area specifying unit 76 may specify the values of the various parameters described above.
  • the narrowed-down area specifying unit 76 specifically includes, for example, the coordinate value of the center of the image of the head of the user 60, the value indicating at least one of the above-described lengths L1 to L6, the coordinate value of each vertex, You may specify the coordinate value of the center of 60 head images, and the vertical and horizontal enlargement ratios (reduction ratios).
  • the narrowed down area specifying unit 76 may include a center line specifying unit that specifies the center line of the image of the head of the user 60 that extends in the vertical direction in the captured image 62. And the narrowing-down area
  • specification part 76 may pinpoint the narrowing-down area
  • the secondary candidate sector selection unit 78 selects a secondary candidate that is a direction associated with a position in the narrowed-down region R from a plurality of primary candidates in the main beam direction.
  • the secondary candidate sector selection unit 78 includes primary candidate sector data including the coordinate value in the narrowed-down area R specified by the narrowed-down area specifying unit 76 as the captured image coordinate parameter (x, y).
  • the secondary candidate sector data indicating the secondary candidate sector is selected.
  • communication (negotiation) between the HMD 12 and the relay device 16 is not necessary.
  • the secondary candidate sector selection unit 78 may select the secondary candidate sector data based on the above-described various parameter values specified by the narrowed-down area specifying unit 76.
  • the sector level sweep processing execution unit 80 determines the main beam direction in communication with the HMD 12 from the secondary candidates selected by the secondary candidate sector selection unit 78. In this embodiment, for example, the sector level sweep processing execution unit 80 is based on communication quality when communication is performed with each of the secondary candidate sectors selected by the secondary candidate sector selection unit 78 as the main beam direction. The main beam direction of the relay device 16 is determined. In this embodiment, for example, the sector level sweep processing execution unit 80 sets each of the secondary candidate sectors selected by the secondary candidate sector selection unit 78 as the main beam direction in the negotiation between the HMD 12 and the relay device 16. Check the communication quality in communication. Then, the sector level sweep processing execution unit 80 determines, for example, the main beam direction with the highest communication quality as the main beam direction of the relay device 16.
  • the beam refinement processing execution unit 82 executes beam refinement processing for finely adjusting the main beam direction determined by the sector level sweep processing execution unit 80.
  • the beam refinement process is also performed by communication (negotiation) between the HMD 12 and the relay device 16.
  • the posture specifying unit 74 specifies that the posture of the user 60 extends in the vertical direction based on the captured image 62 acquired by the image acquisition unit 72, the following processing is executed. It will be done.
  • the posture specifying unit 74 specifies that the posture of the user 60 extends in the vertical direction based on the captured image 62 acquired by the image acquisition unit 72 (S101). Then, the narrowed down area specifying unit 76 specifies the narrowed down area R based on the position of the image of the user 60 in the captured image 62 (S102). In the process shown in S102, for example, the values of the above-described various parameters that express the narrowed down region R are specified.
  • the secondary candidate sector selecting unit 78 selects a secondary candidate sector from the primary candidate sectors indicated by the primary candidate sector data based on the narrowed down area R specified in the process shown in S102 (S103).
  • the primary candidate sector data including the coordinate value in the narrowed down area R specified by the processing shown in S102 as the in-photograph image coordinate parameter (x, y) is the secondary candidate sector data indicating the secondary candidate sector. Selected.
  • the sector level sweep processing execution unit 80 confirms the communication quality at the time of communication in the main beam direction represented by the secondary candidate sector for all the secondary candidate sectors specified in the processing shown in S103 (S104). .
  • the sector level sweep process execution unit 80 determines the main beam direction represented by the secondary candidate sector identified as having the highest communication quality in the process shown in S104 as the main beam direction of the HMD 12 (S105).
  • the beam refinement processing execution unit 82 performs a beam refinement process that is a fine adjustment of the main beam direction determined in the process shown in S105 (S106). Then, the processing shown in this processing example is finished. As described above, the negotiation between the HMD 12 and the relay device 16 is not performed in the processes shown in S101 to S103, but the negotiation between the HMD 12 and the relay device 16 is performed in the processes shown in S104 to S106.
  • communication will be performed between the HMD 12 and the relay device 16.
  • the communication quality between the HMD 12 and the relay device 16 is equal to or lower than a predetermined quality.
  • only the processes shown in S104 to S106 described above may be executed. In this way, even if the communication quality between the HMD 12 and the relay device 16 deteriorates, sector level sweep is performed without reselecting the secondary candidate sectors. Therefore, the time from when the communication quality between the HMD 12 and the relay device 16 deteriorates until the main beam direction is determined again can be shortened.
  • the selection of the secondary candidate sector is executed again, that is, for example, in S101 to S106. You may make it perform the process shown.
  • the narrowed-down area R may be set based on the captured image 62 including the image of the user 60 whose posture is not straight in the vertical direction. In this case, for example, the narrowed-down area R may be set based on the position estimated as the head position of the user 60 when the posture of the user 60 extends in the vertical direction.
  • the HMD 12 represents the primary candidate sectors for all the primary candidate sectors. You may confirm the communication quality in the case of communication in the main beam direction. In this case, the HMD 12 may determine the main beam direction represented by the primary candidate sector identified as having the highest communication quality as the main beam direction of the HMD 12. In this case, for example, there may be primary candidate sectors that are not selected as secondary candidate sectors.
  • the shape of the narrowed-down region R may be different between when the user 60 is playing the game while standing and when the game is playing while sitting.
  • part or all of the functions illustrated in FIG. 9 may be implemented by the entertainment device 14.
  • the shape of the narrowing region R is not limited to that shown in FIGS.
  • the specific character strings and numerical values described above and the specific character strings and numerical values in the drawings are examples, and are not limited to these character strings and numerical values.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ゲームをプレイしている状況においてユーザの頭部が動く方向に偏りがあることを踏まえた主ビーム方向の候補の絞り込みを行える主ビーム方向決定装置、主ビーム方向決定方法及びプログラムを提供する。画像取得部(72)は、ヘッドマウントディスプレイを装着しているユーザの像が含まれる画像を取得する。絞り込み領域特定部(76)は、当該画像内の、ユーザの姿勢が上下方向に延伸する場合におけるユーザの頭部の像を含む領域を特定する。2次候補セクタ選択部(78)は、複数の主ビーム方向の1次候補のうちから、当該領域内の位置に対応付けられる方向である2次候補を選択する。セクタレベルスイープ処理実行部(80)は、当該2次候補のうちから、ヘッドマウントディスプレイとの通信における主ビーム方向を決定する。当該領域は、凸部を有する。

Description

主ビーム方向決定装置、主ビーム方向決定方法及びプログラム
 本発明は、主ビーム方向決定装置、主ビーム方向決定方法及びプログラムに関する。
 無線通信分野において、主ビーム方向の複数の候補のうちから、通信が行われた際の通信品質が高い方向を通信に用いられる主ビーム方向として決定する技術が知られている。このような技術の一例としては、ビームフォーミングにおけるセクタレベルスイープが挙げられる。
 近年、例えばゲームプログラムを実行するゲーム装置が生成する、ゲームのプレイ状況を表す動画像を無線でヘッドマウントディスプレイ(HMD)に送信し、当該動画像をHMDに表示させることが検討されている。このようにすると、HMDを装着したユーザは頭部を自由に動かしてゲームをプレイすることができる。
 このようなユーザがゲームをプレイしている状況においては、通信がなるべく途切れないようにするため通信に用いられる主ビーム方向の決定に要する時間を短くすることが重要となる。ここで例えば主ビーム方向の複数の候補のうちからユーザの頭部がある可能性が高い範囲の候補に絞り込んだ上で、これらの候補のうちから主ビーム方向を決定するようにすると、短時間で主ビーム方向が決定できる。
 主ビーム方向の候補の絞り込みを行うにあたって、ユーザがゲームをプレイしている状況ではユーザの頭部が動く方向に偏りがあることを踏まえると、より適切な絞り込みが行える。例えば、ジャンプの動作やしゃがむ動作によってユーザの頭部が上下方向に動いたり、首や体を傾ける動作によってユーザの頭部が前後左右に動いたりする可能性は高いが、左上、右上、左下、右下などといった斜め方向にユーザの頭部が動く可能性は低い。そのため例えばユーザの頭部に対して斜め方向である範囲については主ビーム方向の候補からは除外されることが望ましい。
 例えば上記のようにすると主ビーム方向の候補をより適切に絞り込めるが、従来技術ではユーザがゲームをプレイしている状況においてユーザの頭部が動く方向に偏りがあることを踏まえた主ビーム方向の候補の絞り込みは行われていなかった。
 本発明は上記実情に鑑みてなされたものであって、その目的の一つは、ゲームをプレイしている状況においてユーザの頭部が動く方向に偏りがあることを踏まえた主ビーム方向の候補の絞り込みを行える主ビーム方向決定装置、主ビーム方向決定方法及びプログラムを提供することにある。
 上記課題を解決するために、本発明に係る主ビーム方向決定装置は、ヘッドマウントディスプレイを装着しているユーザの像が含まれる画像を取得する画像取得部と、前記画像内の、前記ユーザの姿勢が上下方向に延伸する場合における前記ユーザの頭部の像を含む領域を特定する領域特定部と、複数の主ビーム方向の1次候補のうちから、前記領域内の位置に対応付けられる方向である2次候補を選択する2次候補選択部と、前記2次候補のうちから、前記ヘッドマウントディスプレイとの通信における主ビーム方向を決定する主ビーム方向決定部と、を含み、前記領域は、凸部を有する。
 本発明の一態様では、前記領域は、十字形状の領域である。
 また本発明の一態様では、前記領域は、左右対称である。
 この態様では、前記画像内における、前記ユーザの頭部の像の中心線を特定する中心線特定部、をさらに含み、前記領域特定部が、前記中心線を中心として左右対称となる領域を特定してもよい。
 また本発明の一態様では、前記凸部が占める領域は、前記ユーザの頭部の像より上の領域を含む。
 また本発明の一態様では、前記領域の大きさは、前記ユーザの頭部の像の大きさに比例した大きさである。
 また、本発明に係る主ビーム方向決定方法は、ヘッドマウントディスプレイを装着しているユーザの像が含まれる画像を取得するステップと、前記画像内の、前記ユーザの姿勢が上下方向に延伸する場合における前記ユーザの頭部の像を含む領域を特定するステップと、複数の主ビーム方向の1次候補のうちから、前記領域内の位置に対応付けられる方向である2次候補を選択するステップと、前記2次候補のうちから、前記ヘッドマウントディスプレイとの通信における主ビーム方向を決定するステップと、を含み、前記領域は、凸部を有する。
 また、本発明に係るプログラムは、ヘッドマウントディスプレイを装着しているユーザの像が含まれる画像を取得する手順、前記画像内の、前記ユーザの姿勢が上下方向に延伸する場合における前記ユーザの頭部の像を含む領域を特定する手順、複数の主ビーム方向の1次候補のうちから、前記領域内の位置に対応付けられる方向である2次候補を選択する手順、前記2次候補のうちから、前記ヘッドマウントディスプレイとの通信における主ビーム方向を決定する手順、をコンピュータに実行させ、前記領域は、凸部を有する。
本発明の一実施形態に係る映像表示システムの全体構成の一例を示す図である。 本発明の一実施形態に係るヘッドマウントディスプレイの構成の一例を示す図である。 本発明の一実施形態に係る中継装置の構成の一例を示す図である。 ユーザが装着するヘッドマウントディスプレイと中継装置との間での通信が行われている様子の一例を示す図である。 角度φ及び角度θの組合せと、主ビーム方向との対応関係の一例を説明する説明図である。 撮影画像の一例を示す図である。 絞り込み領域の一例を示す図である。 撮影画像の一例を示す図である。 撮影画像の一例を示す図である。 本発明の一実施形態に係る中継装置で実装される機能の一例を示す機能ブロック図である。 1次候補セクタデータの一例を示す図である。 本発明の一実施形態に係る中継装置において行われる処理の流れの一例を示すフロー図である。
 以下、本発明の一実施形態について、図面を参照しながら説明する。
 図1は、本発明の一実施形態に係る映像表示システム10の全体構成の一例を示す図である。図2Aは、本実施形態に係るヘッドマウントディスプレイ(HMD)12の構成の一例を示す図である。図2Bは、本実施形態に係る中継装置16の構成の一例を示す図である。
 図1に示すように、本実施形態に係る映像表示システム10は、HMD12とエンタテインメント装置14と中継装置16とディスプレイ18とカメラマイクユニット20とコントローラ22とを含んでいる。
 本実施形態に係るHMD12には、例えば図2Aに示すように、制御部30、記憶部32、通信部34、入出力部36、表示部38、センサ部40、音声出力部42が含まれる。
 制御部30は、例えばHMD12にインストールされるプログラムに従って動作するマイクロプロセッサ等のプログラム制御デバイスである。
 記憶部32は、例えばROMやRAM等の記憶素子などである。記憶部32には、制御部30によって実行されるプログラムなどが記憶される。
 通信部34は、例えばアレイアンテナが内蔵された無線LANモジュールなどの通信インタフェースである。本実施形態では図1に示すように、通信部34は、HMD12の前側上方に配置されている。
 入出力部36は、例えばHDMI(登録商標)(High-Definition Multimedia Interface)ポート、USBポート、AUXポートなどの入出力ポートである。
 表示部38は、HMD12の前側に配置されている、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイであり、エンタテインメント装置14が生成する映像などを表示させる。また表示部38は、HMD12の筐体に収容される。表示部38は、例えばエンタテインメント装置14が出力して中継装置16で中継される映像信号を受信して、当該映像信号が表す映像を出力するようにしてもよい。本実施形態に係る表示部38は、例えば左目用の画像と右目用の画像を表示することによって三次元画像を表示させることができるようになっている。なお表示部38は三次元画像の表示ができず二次元画像の表示のみができるものであっても構わない。
 センサ部40は、例えば加速度センサやモーションセンサなどといったセンサである。センサ部40は、HMD12の回転量、移動量などの計測結果を所定のフレームレートで、制御部30に出力する。
 音声出力部42は、例えばヘッドホンやスピーカ等であり、エンタテインメント装置14が生成する音声データが表す音声などを出力する。音声出力部42は、例えばエンタテインメント装置14が出力して中継装置16で中継される音声信号を受信して、当該音声信号が表す音声を出力する。
 本実施形態に係るエンタテインメント装置14は、例えばゲームコンソール、DVDプレイヤ、Blu-ray(登録商標)プレイヤなどといったコンピュータである。本実施形態に係るエンタテインメント装置14は、例えば記憶されているゲームプログラムの実行や光ディスクに記録されたコンテンツの再生などによって映像や音声を生成する。そして本実施形態に係るエンタテインメント装置14は、生成される映像を表す映像信号や生成される音声を表す音声信号を、中継装置16を経由して、HMD12やディスプレイ18に出力する。
 本実施形態に係る中継装置16は、エンタテインメント装置14から出力される映像信号や音声信号を中継してHMD12やディスプレイ18に出力するコンピュータである。
 本実施形態に係る中継装置16には、例えば図2Bに示すように、制御部50、記憶部52、通信部54、入出力部56が含まれる。
 制御部50は、例えば制御回路、又は、中継装置16にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。
 記憶部52は、例えばROMやRAM等の記憶素子などである。記憶部52には、制御部50によって実行されるプログラムなどが記憶される。
 通信部54は、例えばアレイアンテナが内蔵された無線LANモジュールなどの通信インタフェースなどである。本実施形態では、図1に示すように、中継装置16の前側に、通信部54が含まれている。
 入出力部56は、HDMI(登録商標)(High-Definition Multimedia Interface)ポート、USBポートなどの入出力ポートである。
 本実施形態に係るディスプレイ18は、例えば液晶ディスプレイ等であり、エンタテインメント装置14から出力される映像信号が表す映像などを表示させる。
 本実施形態に係るカメラマイクユニット20は、例えば被写体を撮像した画像をエンタテインメント装置14に出力するカメラ20a及び周囲の音声を取得して当該音声を音声データに変換してエンタテインメント装置14に出力するマイク20bを含んでいる。また本実施形態に係るカメラ20aはステレオカメラである。
 HMD12と中継装置16とは、例えば、無線通信によるデータの送受信が互いに可能になっている。エンタテインメント装置14と中継装置16とは、例えば、HDMIケーブルやUSBケーブルなどを介して接続されている。中継装置16とディスプレイ18とは、例えば、HDMIケーブルなどを介して接続されている。エンタテインメント装置14とカメラマイクユニット20とは、例えば、AUXケーブルなどを介して接続されている。
 本実施形態に係るコントローラ22は、エンタテインメント装置14に対する操作入力を行うための操作入力装置である。ユーザは、コントローラ22が備える方向キーやボタンを押下したり、操作スティックを傾けたりすることで、コントローラ22を用いて各種の操作入力を行うことができる。そして本実施形態では、コントローラ22は、操作入力に対応付けられる入力データをエンタテインメント装置14に出力する。また本実施形態に係るコントローラ22は、USBポートを備えている。そしてコントローラ22は、USBケーブルでエンタテインメント装置14と接続することで、有線で入力データをエンタテインメント装置14に出力することができる。また本実施形態に係るコントローラ22は、無線通信モジュール等を備えており、無線で入力データをエンタテインメント装置14に出力することができるようにもなっている。
 本実施形態では、HMD12と中継装置16との間では60GHz帯などといったミリ波による無線通信が行われる。ミリ波は直進性が強いため、主ビーム方向を適切に調整しないと通信品質の確保が難しい。本実施形態では、通信品質が高い方向が主ビーム方向として設定されるように調整することで通信品質が確保されることとなる。
 主ビーム方向を設定する技術の一例としてビームフォーミングが知られている。ビームフォーミングの処理は、セクタレベルスイープの処理とビームリファインメントの処理とから構成される。セクタレベルスイープでは主ビーム方向の複数の候補のうちから通信が行われた際の通信品質が高い方向がHMD12の主ビーム方向として決定される。本実施形態における通信品質としては、例えば、信号対雑音比(S/N比)や受信強度などが挙げられる。セクタレベルスイープによってHMD12の主ビーム方向が決定されると、その決定されたHMD12の主ビーム方向を微調整するビームリファインメントの処理が実行される。なおセクタレベルスイープもビームリファインメントも、HMD12の通信部34と中継装置の通信部54との間の通信(ネゴシエーション)によって行われる。
 図3は、ユーザ60が装着するHMD12と中継装置16との間での通信が行われている様子の一例を示す図である。図3には、中継装置16の主ビーム方向である方向d1が示されている。
 本実施形態では、主ビーム方向は、角度φ及び角度θの組合せで表現される。以下、角度φと角度θとの組合せを主ビーム角度パラメータ(φ,θ)と呼ぶこととする。図4は、角度φ及び角度θの組合せと、主ビーム方向との対応関係の一例を説明する説明図である。
 本実施形態では例えば、中継装置16に内蔵されたアレイアンテナが配置されている面に垂直な方向であって、中継装置16の後側から前側に向かう方向が、図4におけるX軸正方向に相当することとする。図3に示すように、中継装置16は、その前側がHMD12の方を向くように配置されている。また中継装置16に内蔵されたアレイアンテナが配置されている面に沿った方向であって、中継装置16の右側から左側に向かう方向(図3においては概ね左から右に向かう方向)が、図4におけるY軸正方向に相当することとする。また中継装置16に内蔵されたアレイアンテナが配置されている面に沿った方向であって、X軸正方向から見てY軸正方向を反時計回りに90度回転させた方向をZ軸正方向とする。そして本実施形態では図4に示すように、Z軸正方向から見た際における、X軸を基準として反時計回りを正とした角度を角度φとする。また、Z軸正方向となす角度を角度θとする。例えば、X軸正方向に相当する主ビーム角度パラメータ(φ,θ)は(0,+90)となる。なお本実施形態では主ビーム角度パラメータの値の単位は「度」であることとする。また本実施形態では、-180≦φ<+180であり、0≦θ≦180であることとする。
 図5は、本実施形態に係るカメラ20aが撮影する撮影画像62の一例を示す図である。図5に示す撮影画像62には、HMD12を装着したユーザ60の像が含まれている。本実施形態ではカメラ20aは所定のフレームレートで撮影画像62を生成する。図5に示す撮影画像62の右方向をx軸正方向、下方向をy軸正方向とする。ここで撮影画像62内の位置を表すx座標とy座標との組合せを撮影画像内座標パラメータ(x,y)と呼ぶこととする。
 そして本実施形態では、撮影画像62内の位置と主ビーム方向とは1対1で対応付けられている。本実施形態では例えば、主ビーム角度パラメータ(φ,θ)と、撮影画像内座標パラメータ(x,y)とは1対1で対応付けられる。
 図5の撮影画像62には、セクタレベルスイープにおける主ビーム方向の候補のそれぞれに対応付けられる位置が×印で示されている。以下、×印で示されている位置のそれぞれを1次候補セクタ対応位置と呼ぶこととする。そして1次候補セクタ対応位置に対応付けられる主ビーム方向の候補を、1次候補セクタと呼ぶこととする。図5には、120個の1次候補セクタのそれぞれに対応付けられる1次候補セクタ対応位置が示されている。
 本実施形態では、1次候補セクタのうちの、ユーザ60の像の撮影画像62内の位置に応じた一部が2次候補セクタとして選択される。この2次候補セクタの選択の際には、HMD12と中継装置16との間での通信(ネゴシエーション)は不要である。図5には、2次候補セクタであるか否かの境界である絞り込み領域Rが示されている。以下、×印で示されている1次候補セクタ対応位置のうちの一部である、2次候補セクタに対応付けられる位置を、2次候補セクタ対応位置と呼ぶこととする。図5の例では、120個の1次候補セクタ対応位置のうちの6個が、2次候補セクタ対応位置として選択されることとなる。
 本実施形態に係る絞り込み領域Rは、例えば、左右対称である十字形状の領域であり、長方形の中央部64、中央部64から上に延伸する長方形の凸部66、及び、中央部64から下に延伸する長方形の凸部68を有する。
 そして本実施形態に係る絞り込み領域Rは、例えば、中央部64、凸部66、及び、凸部68のそれぞれ中心のx座標が、ユーザ60の姿勢が上下方向に延伸する場合におけるユーザ60の頭部の像の中心のx座標と同じになるよう設定される。ここで例えば、公知の骨格判定技術や顔認識技術により、撮影画像62内における、ユーザ60の頭部の中心線が特定されてもよい。そして中央部64、凸部66、及び、凸部68のそれぞれ中心のx座標が、上述のようにして特定される中心線のx座標と同じになるようにしてもよい。
 また絞り込み領域Rは、凸部66及び凸部68の横の長さL1が、ユーザ60の頭部の像の横の長さと同じであり、中央部64の横の長さL2が、ユーザ60の頭部の像の横の長さの所定倍(例えば3倍)となるよう設定される。このように本実施形態に係る絞り込み領域Rの大きさは、ユーザ60の頭部の像の大きさに比例した大きさとなっている。
 また絞り込み領域Rにおける凸部66の上辺は、ユーザ60の頭部の像の中心よりも、長さL3(例えば実空間における50cmに相当する長さL3)だけ上の位置に設定される。ここで実空間における50cmに相当する長さL3は、例えば撮影画像62内におけるユーザ60の像の縦の長さと、ユーザ60の身長を示すデータとに基づいて特定可能である。また絞り込み領域Rにおける凸部66の下辺(中央部64の上辺)は、ユーザ60の頭頂部の像の位置に設定される。このように凸部66は、ユーザ60の頭部の像より上の領域を含んでいてもよい。また絞り込み領域Rにおける凸部68の上辺(中央部64の下辺)は、ユーザ60の胸の像の位置、又は、当該位置の少し下に設定される。また絞り込み領域Rにおける凸部68の下辺は、ユーザ60の腰の像の位置に設定される。以上で説明した、胸の像の位置や腰の像の位置は例えば骨格判定技術により特定可能である。なおユーザ60が座った状態でゲームをプレイしている場合も、以上で説明した形状の絞り込み領域Rが設定されても構わない。
 なお絞り込み領域Rの特定方法は上述のものに限定されない。例えば図6に示すように、上述の長さL3や、凸部66の縦の長さL4、凸部68の縦の長さL5、中央部64の縦の長さL6が、顔認識技術により特定される顔の縦の長さの所定倍の長さであっても構わない。またこれらの長さL3~L6が、ユーザ60の像の縦の長さ(すなわち身長)に比例して設定されても構わない。
 また絞り込み領域Rが、所定の形状の領域(例えば十字形状の領域)を、撮影画像62内における、ユーザ60の頭部の像の大きさ(縦の長さ及び横の長さ)に比例するよう相似拡大させた領域であっても構わない。
 また絞り込み領域Rを管理するためのデータの形式は特に問わない。例えば、ユーザ60の頭部の像の中心の座標値及び上述の長さL1~L6の長さを示すパラメータにより絞り込み領域Rの撮影画像62内における位置が管理されても構わない。また例えば、絞り込み領域Rに含まれる各頂点の座標値により絞り込み領域Rの撮影画像62内における位置が管理されても構わない。また例えば、絞り込み領域Rが所定の形状の領域を相似拡大させた領域である場合は、ユーザ60の頭部の像の中心の座標値及び縦横それぞれの拡大率(縮小率)により絞り込み領域Rの撮影画像62内における位置が管理されても構わない。
 本実施形態では例えば、所定のフレームレートで生成される撮影画像62に基づいて、ユーザ60の姿勢が上下方向に延伸しているフレームの撮影画像62が特定される。そして特定された撮影画像62に含まれるユーザ60の像に基づいて、撮影画像62内に上述したような絞り込み領域Rが設定される。そして設定された絞り込み領域R内の1次候補セクタ対応位置が、2次候補セクタ対応位置として選択される。そしてHMD12と中継装置16との間のネゴシエーションによって、選択された2次候補セクタ対応位置に対応付けられる2次候補セクタのそれぞれに対応付けられる方向を主ビーム方向とする通信を行った際の通信品質が確認される。そして、最も通信品質が高い2次候補セクタに対応付けられる方向が主ビーム方向として決定されることとなる。
 本実施形態では、上述のようにして通信品質を確認する主ビーム方向の候補を、撮影画像62内におけるユーザ60の頭部の像の位置に応じた一部に限定している。そのため本実施形態ではHMD12と中継装置16との間のネゴシエーションによって通信品質が確認されるセクタの数が従来のビームフォーミングよりも少ない。そのため本実施形態によれば従来のビームフォーミングよりも短時間で主ビーム方向が特定されることとなる。
 またユーザ60がゲームをプレイしている状況においてはユーザ60の頭部が動く方向には偏りがある。例えば、ジャンプの動作やしゃがむ動作によってユーザ60の頭部が上下方向に動いたり、首や体を傾ける動作によってユーザ60の頭部が前後左右に動いたりする可能性は高い。一方、左上、右上、左下、右下などといった斜め方向にユーザ60の頭部が動く可能性は低い。
 本実施形態ではこのようなユーザ60の頭部が動く方向の偏りを踏まえて、通信品質を確認する主ビーム方向の候補を図5に示すような凸部66や凸部68を有する形状の絞り込み領域R内の2次候補セクタ対応位置に対応付けられる2次候補セクタに限定している。このようにして本実施形態ではゲームをプレイしている状況においてユーザ60の頭部が動く方向に偏りがあることを踏まえた主ビーム方向の候補の絞り込みが行われることとなる。
 例えば図7には、ユーザ60が頭部を左に傾けた際の撮影画像62の一例が示されている。図8には、ユーザ60が体を左に傾けた際の撮影画像62の一例が示されている。図7や図8に示す状況においても、ユーザ60の頭部の像は絞り込み領域R内に配置されることとなる。そのためユーザ60の頭部が動いた状況であっても、本実施形態によれば、絞り込み領域R内に対応付けられる2次候補セクタのうちから主ビーム方向を選択することで、通信品質が高い主ビーム方向が選択できることとなる。
 以下、本実施形態に係る中継装置16の機能並びに本実施形態に係る中継装置16で実行される処理についてさらに説明する。なお本実施形態に係る中継装置16は、主ビーム方向の複数の1次候補のうちから中継装置16の主ビーム方向を決定する主ビーム方向決定装置としての役割を担うこととなる。
 図9は、本実施形態に係る中継装置16で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る中継装置16で、図9に示す機能のすべてが実装される必要はなく、また、図9に示す機能以外の機能が実装されていても構わない。
 図9に示すように、本実施形態に係る中継装置16は、機能的には例えば、1次候補セクタデータ記憶部70、画像取得部72、姿勢特定部74、絞り込み領域特定部76、2次候補セクタ選択部78、セクタレベルスイープ処理実行部80、ビームリファインメント処理実行部82、を含んでいる。1次候補セクタデータ記憶部70は、記憶部52を主として実装される。画像取得部72は、制御部50及び入出力部56を主として実装される。姿勢特定部74、絞り込み領域特定部76、2次候補セクタ選択部78は、制御部50を主として実装される。セクタレベルスイープ処理実行部80、ビームリファインメント処理実行部82は、制御部50及び通信部54を主として実装される。
 以上の機能は、コンピュータである中継装置16にインストールされた、以上の機能に対応する指令を含むプログラムを制御部50で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して中継装置16に供給される。
 1次候補セクタデータ記憶部70は、本実施形態では例えば、1次候補セクタを示す1次候補セクタデータを記憶する。本実施形態に係る1次候補セクタデータには例えば、図10に示すように、1次候補セクタデータの識別情報である1次候補セクタIDと、上述の主ビーム角度パラメータ(φ,θ)と、上述の撮影画像内座標パラメータ(x,y)と、が含まれている。また本実施形態では、1次候補セクタデータ記憶部70は、図10に示すように、1次候補セクタデータを複数記憶する。また1次候補セクタデータが示す1次候補セクタは、主ビーム角度パラメータ(φ,θ)によって、基準となる向き(例えばX軸正方向)に対する角度に対応付けられている。また1次候補セクタデータにおいて、主ビーム角度パラメータ(φ,θ)と撮影画像内座標パラメータ(x,y)とは1対1で対応付けられている。本実施形態では例えば、図10に示すように、主ビーム角度パラメータ(φ,θ)のうちの角度φと撮影画像内座標パラメータ(x,y)のうちのx座標とは1対1で対応付けられる。また主ビーム角度パラメータ(φ,θ)のうちの角度θと撮影画像内座標パラメータ(x,y)のうちのy座標とは1対1で対応付けられる。
 画像取得部72は、本実施形態では例えば、HMD12を装着しているユーザ60の像が含まれる画像を取得する。画像取得部72は、本実施形態では例えば、カメラ20aが所定のフレームレートで撮影する、図5、図7、図8に例示する撮影画像62を、当該フレームレートで取得する。
 姿勢特定部74は、本実施形態では例えば、画像取得部72が取得する撮影画像62に基づいて、ユーザ60の姿勢を特定する。姿勢特定部74は、例えば、公知の骨格判定技術に基づく姿勢判定により、ユーザ60の姿勢が上下方向に延伸しているか否かを特定してもよい。
 絞り込み領域特定部76は、本実施形態では例えば、撮影画像62内の、ユーザ60の姿勢が上下方向に延伸している場合におけるユーザ60の頭部の像を含む領域を特定する。絞り込み領域特定部76は、本実施形態では例えば、姿勢特定部74が、画像取得部72が取得する撮影画像62に基づいて、ユーザ60の姿勢が上下方向に延伸していることが特定された際に、上述の絞り込み領域Rを特定する。なお絞り込み領域特定部76は、上述の各種パラメータの値を特定してもよい。絞り込み領域特定部76は、具体的には例えば、ユーザ60の頭部の像の中心の座標値及び上述の長さL1~L6のうちの少なくとも1つを示す値、各頂点の座標値、ユーザ60の頭部の像の中心の座標値及び縦横それぞれの拡大率(縮小率)を特定してもよい。
 また絞り込み領域特定部76が、撮影画像62内における、上下方向に延伸する、ユーザ60の頭部の像の中心線を特定する中心線特定部を含んでいてもよい。そして絞り込み領域特定部76が、特定される中心線を中心とする左右対称となる絞り込み領域Rを特定してもよい。
 2次候補セクタ選択部78は、本実施形態では例えば、複数の主ビーム方向の1次候補のうちから、絞り込み領域R内の位置に対応付けられる方向である2次候補を選択する。2次候補セクタ選択部78は、本実施形態では例えば、絞り込み領域特定部76が特定した絞り込み領域R内の座標値を撮影画像内座標パラメータ(x,y)として含む1次候補セクタデータを、2次候補セクタを示す2次候補セクタデータとして選択する。なお2次候補セクタ選択部78による2次候補セクタの選択処理においては、HMD12と中継装置16との間の通信(ネゴシエーション)は不要である。なお2次候補セクタ選択部78が、絞り込み領域特定部76が特定する上述の各種パラメータの値に基づいて、2次候補セクタデータを選択してもよい。
 セクタレベルスイープ処理実行部80は、本実施形態では例えば、2次候補セクタ選択部78が選択した2次候補のうちから、HMD12との通信における主ビーム方向を決定する。セクタレベルスイープ処理実行部80は、本実施形態では例えば、2次候補セクタ選択部78が選択した2次候補セクタのそれぞれを主ビーム方向とした通信が行われた際の通信品質に基づいて、中継装置16の主ビーム方向を決定する。セクタレベルスイープ処理実行部80は、本実施形態では例えば、HMD12と中継装置16との間でのネゴシエーションにおいて、2次候補セクタ選択部78が選択した2次候補セクタのそれぞれを主ビーム方向とした通信における通信品質を確認する。そしてセクタレベルスイープ処理実行部80は、例えば、最も通信品質が高かった主ビーム方向を、中継装置16の主ビーム方向として決定する。
 ビームリファインメント処理実行部82は、本実施形態では例えば、セクタレベルスイープ処理実行部80が決定した主ビーム方向を微調整するビームリファインメント処理を実行する。ビームリファインメント処理についても、HMD12と中継装置16との間での通信(ネゴシエーション)によって行われる。
 以下、本実施形態に係る中継装置16において行われる、絞り込み領域Rの設定処理の流れの一例を、図11に示すフロー図を参照しながら説明する。本実施形態では例えば、姿勢特定部74が、画像取得部72が取得する撮影画像62に基づいて、ユーザ60の姿勢が上下方向に延伸していることを特定した際に、以下の処理が実行されることとする。
 上述のように、姿勢特定部74が、画像取得部72が取得する撮影画像62に基づいて、ユーザ60の姿勢が上下方向に延伸していることを特定したとする(S101)。すると絞り込み領域特定部76が、当該撮影画像62内のユーザ60の像の位置に基づいて、絞り込み領域Rを特定する(S102)。S102に示す処理では例えば、絞り込み領域Rを表現する上述の各種パラメータの値が特定される。
 そして2次候補セクタ選択部78が、S102に示す処理で特定された絞り込み領域Rに基づいて、1次候補セクタデータが示す1次候補セクタのうちから、2次候補セクタを選択する(S103)。ここでは例えばS102に示す処理で特定された絞り込み領域R内の座標値を撮影画像内座標パラメータ(x,y)として含む1次候補セクタデータが、2次候補セクタを示す2次候補セクタデータとして選択される。
 そしてセクタレベルスイープ処理実行部80が、S103に示す処理で特定されたすべての2次候補セクタについて、当該2次候補セクタが表す主ビーム方向での通信の際の通信品質を確認する(S104)。
 そしてセクタレベルスイープ処理実行部80が、S104に示す処理で最も高い通信品質であると特定された2次候補セクタが表す主ビーム方向を、HMD12の主ビーム方向として決定する(S105)。
 そしてビームリファインメント処理実行部82が、S105に示す処理で決定された主ビーム方向の微調整であるビームリファインメント処理を行う(S106)。そして本処理例に示す処理は終了される。なお上述したように、S101~S103に示す処理ではHMD12と中継装置16との間のネゴシエーションは行われないが、S104~S106に示す処理ではHMD12と中継装置16との間のネゴシエーションが行われる。
 以後、HMD12と中継装置16との間で通信が行われることとなるが、ここで例えばHMD12と中継装置16との通信品質が所定の品質以下となったとする。この場合に2次候補セクタの選択が再度実行される必要はない。具体的には、例えば上述のS104~S106に示す処理だけが実行されるようにしてもよい。このようにすれば、HMD12と中継装置16との通信品質が悪くなっても、2次候補セクタの再選択が行われることなくセクタレベルスイープが行われる。そのためHMD12と中継装置16との通信品質が悪くなってから主ビーム方向が再度決定されるまでの時間が短縮できることとなる。
 なおS104~S106に示す処理が終了してもHMD12と中継装置16との通信品質が所定の品質に達しない場合には、2次候補セクタの選択が再度実行される、すなわち例えばS101~S106に示す処理が実行されるようにしても構わない。
 なお、本発明は上述の実施形態に限定されるものではない。
 例えば、HMD12と中継装置16との通信品質が所定の品質以下となった際に、上述のS101~S106に示す処理が実行されても構わない。
 また例えば、ユーザ60の姿勢が上下方向にまっすぐでないユーザ60の像が含まれる撮影画像62内に基づいて、絞り込み領域Rが設定されても構わない。この場合には例えば、当該ユーザ60の姿勢が上下方向に延伸している場合のユーザ60の頭部の位置と推定される位置に基づいて、絞り込み領域Rが設定されても構わない。
 また例えば、上述のS106に示す処理が終了してもHMD12と中継装置16との通信品質が所定の品質に達しない場合は、HMD12は、1次候補セクタすべてについて、当該1次候補セクタが表す主ビーム方向での通信の際の通信品質を確認してもよい。そしてこの場合に、HMD12は、最も高い通信品質であると特定された1次候補セクタが表す主ビーム方向を、HMD12の主ビーム方向として決定してもよい。またこの場合に例えば2次候補セクタとしては選択されることがない1次候補セクタが存在していてもよい。
 また例えば、ユーザ60が立った状態でゲームをプレイしている場合と、座った状態でゲームをプレイしている場合とで、絞り込み領域Rの形状が異なっていてもよい。
 また例えば、図9に例示する機能の一部又は全部が、エンタテインメント装置14で実装されても構わない。
 また例えば、絞り込み領域Rの形状は、図5~図8に示すものに限定されない。また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。

Claims (8)

  1.  ヘッドマウントディスプレイを装着しているユーザの像が含まれる画像を取得する画像取得部と、
     前記画像内の、前記ユーザの姿勢が上下方向に延伸する場合における前記ユーザの頭部の像を含む領域を特定する領域特定部と、
     複数の主ビーム方向の1次候補のうちから、前記領域内の位置に対応付けられる方向である2次候補を選択する2次候補選択部と、
     前記2次候補のうちから、前記ヘッドマウントディスプレイとの通信における主ビーム方向を決定する主ビーム方向決定部と、を含み、
     前記領域は、凸部を有する、
     ことを特徴とする主ビーム方向決定装置。
  2.  前記領域は、十字形状の領域である、
     ことを特徴とする請求項1に記載の主ビーム方向決定装置。
  3.  前記領域は、左右対称である、
     ことを特徴とする請求項1又は2に記載の主ビーム方向決定装置。
  4.  前記画像内における、前記ユーザの頭部の像の中心線を特定する中心線特定部、をさらに含み、
     前記領域特定部が、前記中心線を中心とする左右対称である領域を特定する、
     ことを特徴とする請求項3に記載の主ビーム方向決定装置。
  5.  前記凸部が占める領域は、前記ユーザの頭部の像より上の領域を含む、
     ことを特徴とする請求項1から4のいずれか一項に記載の主ビーム方向決定装置。
  6.  前記領域の大きさは、前記ユーザの頭部の像の大きさに比例した大きさである、
     ことを特徴とする請求項1から5のいずれか一項に記載の主ビーム方向決定装置。
  7.  ヘッドマウントディスプレイを装着しているユーザの像が含まれる画像を取得するステップと、
     前記画像内の、前記ユーザの姿勢が上下方向に延伸する場合における前記ユーザの頭部の像を含む領域を特定するステップと、
     複数の主ビーム方向の1次候補のうちから、前記領域内の位置に対応付けられる方向である2次候補を選択するステップと、
     前記2次候補のうちから、前記ヘッドマウントディスプレイとの通信における主ビーム方向を決定するステップと、を含み、
     前記領域は、凸部を有する、
     ことを特徴とする主ビーム方向決定方法。
  8.  ヘッドマウントディスプレイを装着しているユーザの像が含まれる画像を取得する手順、
     前記画像内の、前記ユーザの姿勢が上下方向に延伸する場合における前記ユーザの頭部の像を含む領域を特定する手順、
     複数の主ビーム方向の1次候補のうちから、前記領域内の位置に対応付けられる方向である2次候補を選択する手順、
     前記2次候補のうちから、前記ヘッドマウントディスプレイとの通信における主ビーム方向を決定する手順、をコンピュータに実行させ、
     前記領域は、凸部を有する、
     ことを特徴とするプログラム。
PCT/JP2016/087750 2015-12-24 2016-12-19 主ビーム方向決定装置、主ビーム方向決定方法及びプログラム WO2017110732A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017558115A JP6409139B2 (ja) 2015-12-24 2016-12-19 主ビーム方向決定装置、主ビーム方向決定方法及びプログラム
US15/776,245 US10758822B2 (en) 2015-12-24 2016-12-19 Main beam direction determination device, main beam direction determination method, and program
EP16878621.8A EP3396869B1 (en) 2015-12-24 2016-12-19 Main beam direction determination device, main beam direction determination method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015251361 2015-12-24
JP2015-251361 2015-12-24

Publications (1)

Publication Number Publication Date
WO2017110732A1 true WO2017110732A1 (ja) 2017-06-29

Family

ID=59090327

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/087750 WO2017110732A1 (ja) 2015-12-24 2016-12-19 主ビーム方向決定装置、主ビーム方向決定方法及びプログラム

Country Status (4)

Country Link
US (1) US10758822B2 (ja)
EP (1) EP3396869B1 (ja)
JP (1) JP6409139B2 (ja)
WO (1) WO2017110732A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019164595A1 (en) * 2018-02-21 2019-08-29 Qualcomm Incorporated Using image processing to assist with beamforming
WO2020110770A1 (ja) * 2018-11-29 2020-06-04 ソニー株式会社 通信制御装置および方法、並びに通信装置および方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10998626B2 (en) * 2015-11-19 2021-05-04 Sony Interactive Entertainment Inc. Antenna control device, head-mounted display, antenna control method, and program
EP3422780B1 (en) * 2017-07-01 2020-05-13 Ruckus Wireless, Inc. Identifying a synchronization master for radio nodes

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH118893A (ja) * 1997-06-17 1999-01-12 Sony Corp 受信装置
JP2010191826A (ja) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2014525191A (ja) * 2011-07-15 2014-09-25 サムスン エレクトロニクス カンパニー リミテッド 無線通信システムにおけるビーム固定装置及びその方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3239205B2 (ja) 1997-06-11 2001-12-17 有限会社北島マシンナイフ シート切断装置
US7971784B2 (en) * 1999-05-25 2011-07-05 Silverbrook Research Pty Ltd Sensing device with mode changes via nib switch
JP5724543B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 端末装置、オブジェクト制御方法及びプログラム
JP2013051570A (ja) * 2011-08-31 2013-03-14 Ricoh Co Ltd 無線通信装置
JP6089722B2 (ja) * 2013-01-23 2017-03-08 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH118893A (ja) * 1997-06-17 1999-01-12 Sony Corp 受信装置
JP2010191826A (ja) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2014525191A (ja) * 2011-07-15 2014-09-25 サムスン エレクトロニクス カンパニー リミテッド 無線通信システムにおけるビーム固定装置及びその方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3396869A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019164595A1 (en) * 2018-02-21 2019-08-29 Qualcomm Incorporated Using image processing to assist with beamforming
US10601488B2 (en) 2018-02-21 2020-03-24 Qualcomm Incorporated Using image processing to assist with beamforming
WO2020110770A1 (ja) * 2018-11-29 2020-06-04 ソニー株式会社 通信制御装置および方法、並びに通信装置および方法
JPWO2020110770A1 (ja) * 2018-11-29 2021-10-14 ソニーグループ株式会社 通信制御装置および方法、並びに通信装置および方法
JP7415944B2 (ja) 2018-11-29 2024-01-17 ソニーグループ株式会社 通信制御装置および方法、並びに通信装置および方法

Also Published As

Publication number Publication date
EP3396869A1 (en) 2018-10-31
JPWO2017110732A1 (ja) 2018-05-24
JP6409139B2 (ja) 2018-10-17
EP3396869B1 (en) 2020-12-16
EP3396869A4 (en) 2019-08-14
US10758822B2 (en) 2020-09-01
US20190358537A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP6368056B2 (ja) 主ビーム方向決定装置、ヘッドマウントディスプレイ、主ビーム方向決定方法及びプログラム
JP6409139B2 (ja) 主ビーム方向決定装置、主ビーム方向決定方法及びプログラム
US10229541B2 (en) Methods and systems for navigation within virtual reality space using head mounted display
JP6560974B2 (ja) 情報処理装置および操作受付方法
JP6266814B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
CN110291564B (zh) 图像生成设备和图像生成方法
US11484792B2 (en) Information processing apparatus and user guide presentation method
US9589317B2 (en) Image processing apparatus, image processing method, and program
JP6421250B2 (ja) アンテナ制御装置、ヘッドマウントディスプレイ、アンテナ制御方法及びプログラム
JP6223533B1 (ja) 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
EP3600578B1 (en) Zoom apparatus and associated methods
JP6840845B2 (ja) 主ビーム方向決定装置、主ビーム方向決定方法及びプログラム
JP2018010480A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018120583A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP7030075B2 (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16878621

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017558115

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016878621

Country of ref document: EP