WO2012029647A1 - 携帯型情報処理装置、携帯型情報処理装置のためのコンピュータプログラム、及び表示制御方法 - Google Patents

携帯型情報処理装置、携帯型情報処理装置のためのコンピュータプログラム、及び表示制御方法 Download PDF

Info

Publication number
WO2012029647A1
WO2012029647A1 PCT/JP2011/069278 JP2011069278W WO2012029647A1 WO 2012029647 A1 WO2012029647 A1 WO 2012029647A1 JP 2011069278 W JP2011069278 W JP 2011069278W WO 2012029647 A1 WO2012029647 A1 WO 2012029647A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
unit
display unit
range
information
Prior art date
Application number
PCT/JP2011/069278
Other languages
English (en)
French (fr)
Inventor
侑典 宮本
Original Assignee
ブラザー工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブラザー工業株式会社 filed Critical ブラザー工業株式会社
Publication of WO2012029647A1 publication Critical patent/WO2012029647A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Definitions

  • the present invention relates to a portable information processing device, a computer program for the portable information processing device, and a display control method.
  • Patent Document 1 discloses a portable navigation device.
  • the portable navigation device of Patent Document 1 includes a display device and speaker means for outputting music.
  • the portable navigation device first, the position information of the destination is input. After that, a route image that guides the route from the current location to the destination is displayed on the screen of the display device, and the sound output conditions are changed according to the angle difference between the current direction of the destination and the current direction of the head front direction. Is done. As a result, the sound image of the musical sound is localized in the current direction of the destination.
  • An image processing method has been proposed in which a virtual space image corresponding to the position and orientation of the head-mounted display device measured by an external measurement device is generated and output to the display unit of the head-mounted display device.
  • a virtual space image corresponding to the position and orientation of the head-mounted display device measured by an external measurement device is generated and output to the display unit of the head-mounted display device.
  • Patent Document 2 an object closest to the viewpoint position among objects intersecting with a straight line extending in the line-of-sight direction from the viewpoint position is specified as the object being watched. Then, when the identified object is watched for the first time or more, information on the object is displayed on the display unit.
  • a portable information processing apparatus that displays objects related to objects existing in the external world visually recognized by the user
  • the user can acquire many objects.
  • a portable information processing apparatus it is often not carried in a predetermined place but carried by a user.
  • the portability is taken into consideration, and therefore the display unit in the portable information processing apparatus is often small compared to, for example, a fixed personal computer. For example, when objects related to a large number of objects are displayed on the display unit of such a portable information processing apparatus, regardless of the distance from the current position, the user can visually recognize the displayed object. It becomes difficult to do.
  • the present disclosure relates to a portable information processing apparatus that displays an object related to an object existing in the outside world that is visually recognized by the user, a computer program for the portable information processing apparatus, and a display control method.
  • the purpose is to provide.
  • each object related to an object existing in the outside world that is visually recognized by the user is displayed in a state in which each object is arranged corresponding to the position of each object in the outside world.
  • a display unit that displays the object; a position acquisition unit that acquires position information indicating a position of the portable information processing apparatus; and an inclination of the user's head in the vertical direction.
  • An inclination angle acquisition unit that acquires the inclination angle information to be shown; an object acquisition unit that acquires each of the objects to be displayed on the display unit according to the position information acquired by the position acquisition unit; and the position acquisition unit.
  • the distance from the position indicated by the position information to the object related to the object acquired by the target acquisition means is the object.
  • a distance determining unit that determines the first angle, and a first distance that is a predetermined distance corresponding to the tilt angle information acquired by the tilt angle acquiring unit among the distances for each of the objects determined by the distance determining unit.
  • the visibility of the first object related to the object in the display unit is different from the visibility of the second object related to the second object located at a different distance from the first object in the display unit.
  • a portable information processing apparatus comprising: an object processing unit; and a display control unit that displays the first object and the second object on the display unit.
  • the first object related to the first object at a predetermined distance corresponding to the tilt angle information, and the second object related to the second object at a different distance from the first object Can be displayed with different visibility. The user can distinguish and visually recognize the first object and the second object.
  • This portable information processing apparatus may be a portable information processing apparatus that further includes another configuration.
  • the object processing unit acquires the distance to the object determined by the distance determination unit by the position acquisition unit.
  • the visibility of the first object in the display unit related to the first object included in the predetermined first distance range based on the position indicated by the position information, and the first distance range.
  • the inclination angle information acquired by the inclination angle acquisition unit indicates a depression angle
  • the visibility of the second object relating to the second object that is not included in the display part is different from the visibility of the second object.
  • the distance to the object determined by the determining means is a predetermined range based on the position indicated by the position information acquired by the position acquisition unit, and the first distance Visibility in the display unit of the first object related to the first object included in the second distance range approaching the position indicated by the position information from the enclosure, and the second distance range
  • the visibility of the second object related to the second object that is not included in the display unit may be made different. According to this, when the tilt angle information indicates an elevation angle, that is, when the user is looking up and looking far away, for the first object related to the first object in the first distance range, The visibility of the second object can be varied.
  • the tilt angle information indicates a depression angle, that is, when the user is looking down and looking near
  • the second distance range closer to the position of the portable information processing device than the first distance range.
  • the visibility of the second object can be made different from the first object related to a certain first object.
  • the vertical direction of the user's head indicated by the tilt angle information acquired by the tilt angle acquisition unit Angle distance specifying means for specifying the distance range related to the angle range including an angle of inclination based on the angle distance information, and the object processing means for each object determined by the distance determining means.
  • the visibility in the display unit of the first object related to the first object in the distance range specified by the angular distance specifying means, and the angular distance specifying means specified The visibility of the second object relating to the second object that is not in the distance range is different from the visibility on the display unit. It may be.
  • a distance range corresponding to the vertical tilt of the user's head can be specified, and the visibility of the first object and the second object can be made different.
  • the object processing means may be configured such that the transparency of the second object in the display unit is higher than the transparency of the first object in the display unit. According to this, visibility can be varied depending on the change in transparency. The user can visually recognize the first object and the second object by appropriately distinguishing them according to the difference in transparency.
  • the object processing means may be configured such that when the first object and the second object are arranged corresponding to positions of the first object and the second object in the outside world, When the first object and the second object are to be displayed overlapping the display unit, the first object and the second object are shifted in the vertical direction of the display area of the display unit. It may be arranged. According to this, the first object and the second object can be shifted in the vertical direction, and more appropriately distinguished and visually recognized.
  • the display Target selection means for further selecting each of the objects to be displayed on the section, and the distance determination means is acquired by the target acquisition means from the position indicated by the position information acquired by the position acquisition section.
  • the distance to the target object related to the object selected by the target selection unit may be determined for each target object. According to this, the object for determining the distance can be selected, and the process for efficiently determining the distance can be executed.
  • the display control means further includes map information acquisition means for acquiring map information indicating a map of a predetermined range in all directions including the position indicated by the position information acquired by the position acquisition unit, You may make it display the said map information and the range information which shows the range which respond
  • each object related to an object existing in the outside world visually recognized by the user is displayed in a state of being arranged corresponding to the position of each object in the outside world, and the object is displayed.
  • a portable information processing system comprising: a display unit; a position acquisition unit that acquires position information indicating the position of the device itself; and an inclination angle acquisition unit that acquires inclination angle information indicating the vertical inclination of the user's head.
  • a distance determination unit that determines a distance to the object for each object, and the inclination acquired by the inclination angle acquisition unit among the distances for each object determined by the distance determination unit Visibility in the display unit of the first object related to the first object at a predetermined distance corresponding to the corner information and the second related to the second object at a different distance from the first object.
  • a computer program for functioning as object processing means for differentiating the visibility of an object in the display section, and display control means for displaying the first object and the second object on the display section is there.
  • this computer program may be a computer program for a portable information processing apparatus that further includes the above-described configuration.
  • each object related to an object existing in the external world visually recognized by the user is displayed in a state of being arranged corresponding to each position of the target object in the external environment, and the object is displayed.
  • Portable information comprising: a display unit that acquires position information that indicates position information indicating the position of the device itself; and an inclination angle acquisition unit that acquires inclination angle information indicating the vertical inclination of the user's head.
  • a display control method in a processing apparatus the target acquisition step of acquiring each of the objects to be displayed on the display unit according to the position information acquired by the position acquisition unit, and the position acquired by the position acquisition unit The distance from the position indicated by the information to the object related to the object acquired in the object acquisition step is determined as the object.
  • a distance determining step to be determined at a first distance at a predetermined distance corresponding to the tilt angle information acquired by the tilt angle acquiring unit among the distances for each of the objects determined in the distance determining step.
  • the visibility of the first object related to the object in the display unit is different from the visibility of the second object related to the second object located at a different distance from the first object in the display unit.
  • a display control method comprising: an object processing step; and a display control step for displaying the first object and the second object on the display unit.
  • the first object related to the first object at a predetermined distance corresponding to the tilt angle information, and the second object related to the second object at a different distance from the first object Can be displayed with different visibility. The user can distinguish and visually recognize the first object and the second object.
  • a portable information processing apparatus that displays an object related to an object existing in the outside world that is visually recognized by the user, a computer program for the portable information processing apparatus, and a display A control method can be obtained.
  • the portable information processing apparatus 1 includes a head mounted display (hereinafter also referred to as “HMD”) 10 and a system box 50.
  • the HMD 10 and the system box 50 are communicably connected via a predetermined signal cable 80 as shown in FIG.
  • the HMD 10 is a see-through HMD, for example.
  • the user can visually recognize the image of the outside world where the user exists while visually recognizing the image displayed on the HMD 10.
  • the HMD 10 has a frame structure 12 similar to normal glasses.
  • the HMD 10 is supported on the user's face by the frame structure 12.
  • An image display unit 14 is attached to a predetermined position of the frame structure 12.
  • the image display unit 14 displays an image visually recognized by the user on the user's eye, for example, the left eye based on FIG.
  • the image display unit 14 is disposed at a position that is substantially the same height as the left eye of the user wearing the HMD 10.
  • a half mirror 16 is fixed to the image display unit 14.
  • the HMD 10 includes an image signal receiving unit 18, an inclination angle acquisition unit 20, an inclination angle information transmission unit 22, an orientation acquisition unit 24, and an orientation information transmission unit as illustrated in FIG. 26.
  • the image signal receiving unit 18 receives an image signal indicating a predetermined image that is created in the system box 50 and transmitted from the system box 50 as described later.
  • the image display unit 14 is configured by, for example, a retinal scanning display.
  • the retinal scanning display performs two-dimensional scanning with image light corresponding to the image signal received by the image signal receiving unit 18.
  • the image display unit 14 guides the scanned image light to the left eye of the user and forms an image on the retina.
  • the image light emitted from the image display unit 14 is reflected by the half mirror 16 disposed at a position in front of the user's left eye and guided to the left eye. In this way, the user wearing the HMD 10 visually recognizes a predetermined image.
  • the image display unit 14 may be configured to use a spatial light modulation element such as a liquid crystal display or an organic EL (Organic Electroluminescence) display, or other display devices, in addition to a retinal scanning display.
  • the inclination angle acquisition unit 20 is configured by an acceleration sensor, for example. As shown in FIG. 2, the inclination angle acquisition unit 20 makes an angle formed with the horizontal plane (refer to the dotted line described as “horizontal” in FIGS. 4 and 5) about the vertical inclination of the HMD 10 mounted on the user's head. The inclination angle information indicating is detected and acquired. The inclination angle information acquired by the inclination angle acquisition unit 20 indicates an angle with 0 ° as a reference when the HMD 10 is supported by the user's head as shown in FIG. 2 and maintained in a horizontal state. Is set. As shown in FIG.
  • the HMD 10 when a user wearing the HMD 10 tilts his / her head upward in the vertical direction in order to visually recognize a target object, for example, the HMD 10 also tilts correspondingly. Similarly, when the user wearing the HMD 10 tilts his / her head downward in the vertical direction in order to visually recognize an object underneath, for example, the HMD 10 also tilts. Therefore, the inclination angle information acquired by the inclination angle acquisition unit 20 can be regarded as information indicating an angle formed with the horizontal plane with respect to the vertical inclination of the user's head.
  • the inclination angle information transmission unit 22 is a communication interface that transmits the inclination angle information acquired by the inclination angle acquisition unit 20 to the system box 50.
  • a signal cable 80 is connected to the tilt angle information transmission unit 22. The inclination angle information is transmitted from the inclination angle information transmission unit 22 to the system box 50 via the signal cable 80.
  • the azimuth acquisition unit 24 is constituted by a magnetic sensor, for example.
  • the azimuth acquisition unit 24 detects and acquires azimuth information indicating the azimuth (direction) in which the HMD 10 mounted on the user's head is facing as shown in FIG. As shown in FIG. 2, when a user wearing the HMD 10 turns to the southwest direction to visually recognize an object in the southwest, for example, the direction of the HMD 10 is also southwest. Therefore, the azimuth information acquired by the azimuth acquisition unit 24 can be regarded as information indicating the azimuth in which the user's face is facing.
  • the direction information transmission unit 26 is a communication interface that transmits the direction information acquired by the direction acquisition unit 24 to the system box 50.
  • a signal cable 80 is connected to the azimuth information transmission unit 26.
  • the direction information is transmitted from the direction information transmission unit 26 to the system box 50 via the signal cable 80.
  • the tilt angle information transmission unit 22 and the azimuth information transmission unit 26 may be a single communication interface in terms of hardware. When a single communication interface is used, the number of parts can be reduced and the configuration of the HMD 10 can be simplified.
  • the system box 50 is attached to the user's waist or the like when the portable information processing device 1 is used.
  • the system box 50 includes a control unit 52, a GPS communication unit 54, an inclination angle information reception unit 56, an orientation information reception unit 58, a wireless communication unit 60, an image signal transmission unit 62, an operation unit 64, a power supply And a switch 66. As shown in FIG. 2, these units are housed in a housing that constitutes the system box 50.
  • the control unit 52 controls the portable information processing device 1 and executes various processes executed by the portable information processing device 1.
  • the control unit 52 includes, for example, a CPU, a ROM, and a RAM.
  • the CPU executes arithmetic processing.
  • the ROM stores computer programs for various types of processing, including computer programs for the types of processing shown in FIGS.
  • the RAM serves as a work area when the CPU executes the computer program stored in the ROM.
  • the control unit 52 includes a graphics processing unit (hereinafter also referred to as “GPU”) and a VRAM (Video RAM).
  • the GPU executes a reproduction process on predetermined image data and creates an image indicated by the image data.
  • the VRAM stores the created image.
  • the CPU reads a computer program stored in the ROM onto the RAM, and executes the read computer program on the RAM. As a result, various functions are executed. Therefore, the control part 52 comprises various functional means.
  • the GPS communication unit 54 receives and acquires position information (GPS information) from GPS satellites.
  • the position information indicates a current position where the portable information processing device 1 configured by the HMD 10 and the system box 50 exists.
  • the tilt angle information receiving unit 56 is a communication interface that receives tilt angle information transmitted from the tilt angle information transmitting unit 22 of the HMD 10 via the signal cable 80.
  • the direction information receiving unit 58 is a communication interface that receives the direction information transmitted from the direction information transmitting unit 26 of the HMD 10 via the signal cable 80.
  • a signal cable 80 is connected to the tilt angle information receiving unit 56 and the azimuth information receiving unit 58.
  • the tilt angle information receiving unit 56 and the azimuth information receiving unit 58 may be one communication interface in terms of hardware.
  • the wireless communication unit 60 is a communication interface for executing wireless communication with a predetermined device provided outside the portable information processing device 1.
  • the wireless communication unit 60 accesses the database device 90 and receives predetermined data, for example, object data including an object, from the database device 90.
  • the image signal transmission unit 62 is a communication interface that transmits an image signal including an image created and stored by the control unit 52 to the HMD 10.
  • the image signal transmitted from the image signal transmitter 62 is received by the image signal receiver 18 of the HMD 10.
  • the operation unit 64 is configured by a predetermined key, for example.
  • the operation unit 64 is an input interface for inputting a predetermined command to the system box 50.
  • the user operates the operation unit 64 when inputting a predetermined command.
  • the power switch 66 is a switch for starting and shutting off the supply of power to the portable information processing apparatus 1. When the power switch 66 is turned on, power is supplied to the system box 50 from a battery not shown in FIGS.
  • the power from the battery is also supplied to the HMD 10 via a power cable arranged in the same manner as the signal cable 80.
  • the power switch 66 is turned off, the power supply from the battery to the system box 50 and / or the HMD 10 is cut off.
  • the database device 90 is a device that stores a database in which geographical information is registered. For example, an object related to an object existing at a predetermined geographical position, position information composed of latitude and longitude of the position where the object exists, image (photo) data related to the object, description of the object Object data associated with information or the like is registered.
  • the target object includes, for example, a predetermined place such as a tourist spot or a building, a shop, a road (road), and the like. Examples of the object related to the object include a thumbnail image of the object or the name of the object. In the following description, a case where the object is a thumbnail image of the target object will be described as an example.
  • the database device 90 stores map data.
  • the main process shown in FIG. 3 is started when the HMD 10 and the system box 50 are turned on.
  • the operation may be started when the user operates the operation unit 64 and inputs a command for starting the main process.
  • the control part 52 which started the main process acquires the azimuth
  • the control unit 52 controls the azimuth information receiving unit 58 to receive the azimuth information.
  • the direction information is transmitted by the direction information transmission unit 26.
  • the orientation information acquired here indicates the orientation in which the HMD 10 mounted on the user's head is facing, that is, the orientation in which the user's face is facing, at the time of execution of S100.
  • the control unit 52 acquires the tilt angle information detected by the tilt angle acquiring unit 20 (S102).
  • the control unit 52 controls the tilt angle information receiving unit 56 to receive the tilt angle information.
  • the inclination angle information is transmitted by the inclination angle information transmission unit 22.
  • the inclination angle information acquired here indicates the angle formed with the horizontal plane at the time of execution of S102 regarding the vertical inclination of the HMD 10 mounted on the user's head. As described above, this inclination is treated as indicating the angle between the vertical direction of the user's head at the time of execution of S102 and the horizontal plane at the time of execution of S102.
  • the control unit 52 controls the GPS communication unit 54 to acquire position information (S104).
  • the position information indicates the current position where the portable information processing device 1 (HMD 10 and system box 50) exists at the time of execution of S104.
  • the direction information acquired in S100 indicates the direction “southwest”. It is assumed that the inclination angle information acquired in S102 indicates the inclination “15 °” or “ ⁇ 15 °” (plus indicates an elevation angle and minus indicates a depression angle). It is assumed that the position information acquired in S104 indicates “north latitude 42 °, west longitude 75 °”. According to these information, the portable information processing apparatus 1 is located at a latitude of 42 ° north latitude and 75 ° west longitude, and the HMD 10 is inclined 15 ° upward or downward in the vertical direction with respect to the horizontal plane and 15 ° downward. Is identified. In other words, it is specified that the user who has the portable information processing device 1 is facing the southwest at a position of 42 ° north latitude and 75 ° west and looking toward the direction of 15 ° elevation or 15 ° depression. Is done.
  • the control unit 52 controls the wireless communication unit 60 to access the database device 90.
  • the control unit 52 specifies an object existing around the current position based on the position information acquired in S104.
  • the control unit 52 acquires object data registered in the database device 90 for the identified object (S106).
  • the object data includes an object related to the specified object. Therefore, according to S106, object data including an object related to the specified target object is acquired.
  • the circumference of the current position is set to a radius X (X is an arbitrary number) meters with the current position as the center. For example, the distance to the horizon at a viewpoint height of 160 cm is set to 4,500 m.
  • the control unit 52 acquires object data for each of all specified objects.
  • the control unit 52 determines the relative position between the current position and the object related to the object data acquired in S106 according to the current position indicated by the position information acquired in S104, and determines the distance to the object. (S108). When a plurality of object data has been acquired in S106, the control unit 52 determines a relative position and a distance for all of the acquired data. The control unit 52 executes S108 using the position information acquired in S104 and the position information included in the object data acquired in S106. For example, the control unit 52 determines from the two pieces of position information described above that the object related to the object data to be processed exists in the south direction when the current position is used as a reference.
  • control unit 52 determines that the distance from the two pieces of position information described above to the object related to the object data to be processed is 100 m away from the current position. According to this S108, it is specified how far away from the current position each object related to the object data acquired in S106 is located in which direction and how far away. This relative position is used in S202 of FIG.
  • control unit 52 executes display image creation processing (S110).
  • the display image creation process will be described later.
  • the control unit 52 displays an image indicated by the image data created in the display image creation process of S110 (S112).
  • the GPU configuring the control unit 52 reproduces the image data, creates an image indicated by the image data, and stores the image in the VRAM that also configures the control unit 52.
  • the control unit 52 controls the image signal transmission unit 62 to transmit an image signal indicating an image stored in the VRAM to the HMD 10.
  • the transmitted image signal is received by the image signal receiving unit 18.
  • the image display unit 14 displays the image indicated by the received image signal by the method described above. Thereby, the user visually recognizes the displayed image.
  • the tilt angle of the user's head is an elevation angle and the tilt angle information acquired in S102 indicates an elevation angle
  • the user is in an elevation angle state as shown in FIG.
  • the image as shown is visually recognized.
  • the tilt angle of the user's head is a depression angle and the inclination angle information acquired in S102 indicates the depression angle
  • the user can display an image as shown in FIG. 5 in the state shown in FIG. Visually check.
  • the scenery showing the cityscape as the background is the outside world where the seven objects related to the seven objects 102 to 114 illustrated in these drawings exist. It is an image and shows an image of the outside world that the user is viewing through the half mirror 16.
  • the control unit 52 determines whether or not a command indicating termination has been input (S114).
  • the command indicating the end is input when the power switch 66 is turned off and the supply of power to the HMD 10 is shut off.
  • a command indicating the end is input by the user operating the operation unit 64.
  • the control unit 52 returns the process to S100 and repeatedly executes each of the processes described above.
  • the control part 52 complete
  • the control unit 52 causes the image display unit 14 to display the description information of the object related to the object selected from the objects 102 to 114. The user visually recognizes the explanation information of the object.
  • the display image creation process is a process for creating an image including an object such as the objects 102 to 114 illustrated in FIGS. 4 and 5 and the small map 120.
  • the control unit 52 that has started the display image creation process shown in FIG. 6 executes a small map creation process (S200).
  • S200 small map creation process
  • the control unit 52 selects object data related to the target object in the front direction of the user from the azimuth information acquired in S100 of FIG. 3 for the object data acquired in S106 of FIG. 3 (S202). .
  • the object data is set in accordance with the relative position with respect to each object determined in S108 of FIG.
  • the range regarded as the user's visual recognition range is a visual field range that is regarded as a normal human visual recognition range.
  • the information acquired in S100 to S104 in FIG. 3 indicates that the user who has the portable information processing device 1 is directed to the southwest at a position of 42 ° north latitude and 75 ° west and 15 ° elevation angle or It is assumed that it is specified that the line of sight is directed in a 15 ° depression direction.
  • the range that the user will be able to visually recognize in such a state is set as a range that corresponds to the orientation information acquired in S100 of FIG.
  • the user's viewing range may be different from the display region (viewing angle range) in which an image can be displayed on the image display unit 14 (viewing range> display region). Therefore, in S202, the display area (view angle range) of the image display unit 14 may be considered. In this case, the range corresponding to the display area of the image display unit 14 is specified from the range that is the user's viewing range. The range of S202 is set based on the specified range. The control unit 52 selects object data including position information included in the set range from the object data acquired in S106 of FIG.
  • the control unit 52 After executing S202, the control unit 52 arranges the object included in the object data selected in S202 in accordance with the position of the object in the outside world according to the relative position determined in S108 (S204). Then, the control unit 52 creates image data that includes the small map 120 created in the small map creation process in S200 and that shows an image in which the objects included in the object data selected in S202 are arranged.
  • the small map 120 is a map image as shown in FIGS. The small map 120 will be described later. If the object data selected in S202 has a relationship such that the determination in S208 described later is affirmed (S208: Yes), the following image data is created in S204. That is, in S204, image data indicating an image in which each object is arranged in a state of being overlapped on the back side as the distance is increased is created in front of the object related to the object that is close to the current position. Is done.
  • the control unit 52 determines whether the object related to the object data selected in S202 exists outside the attention range determined in S308 of the small map creation process shown in FIG. Specifically, the control unit 52 compares the distance to the object determined in S108 of FIG. 3 with the distance range of the attention range determined in S308. When the target is outside the attention range, the control unit 52 affirms the determination in S205 (S205: Yes). When S205 is affirmed (S205: Yes), the control unit 52 shifts the processing to S206. On the other hand, when the target is in the attention range, the control unit 52 denies the determination in S205 (S205: No). When S205 is denied (S205: No), the control part 52 transfers a process to S207.
  • the control unit 52 increases the transparency of the target object, that is, the object related to the target existing outside the attention range.
  • the luminance when an object that does not exist in the attention range is displayed is set to be darker than the luminance when an object that exists in the attention range is displayed.
  • the user visually recognizes the image light reflected by the half mirror 16.
  • the user also visually recognizes an image of the outside world through the half mirror 16. Since the brightness of the outside world is constant, an object that does not exist in the attention range in which the luminance is set to be dark is visually recognized by the user as if the transparency is higher than the object that exists in the attention range.
  • the visibility of the object related to the target object existing in the attention range can be made different from the visibility of the object of the target object not existing in the attention range. Specifically, the visibility of an object that exists in the attention range can be improved as compared with the visibility of an object that is not in the attention range.
  • the image data created in S204 is used. Thereafter, the control unit 52 moves the process to S207.
  • control unit 52 determines whether or not the process of S205 has been performed on all the object data selected in S202.
  • the control unit 52 affirms the determination of S207 (S207: Yes), and moves the process to S208.
  • the control unit 52 denies the determination of S207 (S207: No), and returns the process to S205.
  • the control unit 52 determines whether or not the objects are overlapped and displayed in the arrangement of the objects in the image indicated by the image data created in S204 (S208). For example, when the image data created in S204 is in a state where the objects do not overlap with each other unlike the state shown in FIG. 7, the control unit 52 denies the determination in S208 (S208: No). If there is one object data selected in S202, in S204, the control unit 52 corresponds the object included in the one object data to the position of the object in the outside world according to the relative position determined in S108. The determination in S208 is negative (S208: No). When S208 is denied (S208: No), the control unit 52 ends the display image creation process, and proceeds to S112 in FIG.
  • an image indicated by the image data created in S204 is displayed.
  • the control unit 52 affirms the determination in S208, assuming that the objects are displayed in an overlapping manner (S208: Yes). For example, in FIG. 7, the object 102 and the object 104 overlap.
  • the control unit 52 shifts the process to S209. If the state is as shown in FIG. 7, in S202, seven object data each including seven objects 102 to 114 as illustrated in FIG. 7 are selected. In S204, the seven objects 102 to 114 are arranged as shown in FIG. 7 in accordance with the position information included in these object data. In the image viewed by the user shown in FIG.
  • the scenery showing the cityscape as the background is an image of the outside where there are seven objects related to the seven objects 102 to 114 illustrated in this figure, An image of the outside world that the user is viewing through the half mirror 16 is shown. Therefore, in FIG. 7, the scenery showing the cityscape as the background is not actually related to the image data created in S204.
  • the control unit 52 shifts and arranges the objects so that a nearby object is on the lower side and further on the upper side with the current position as a reference (S209).
  • the vertical direction in which the object is shifted matches the vertical direction of the display area of the image display unit 14.
  • the image data created in S204 and processed in S206 is used.
  • overlapping objects are targeted in the image indicated by the image data.
  • the objects related to the objects are arranged near the center in the vertical direction. Note that the position in the left-right direction is maintained in the state of S204.
  • the object in the direction corresponding to the left-right direction, the object is maintained in the state of S204, and is arranged corresponding to the position of the object in the outside world. Then, the object related to the target located at a distance closer to the target existing in the attention range is moved downward, and the object related to the target located far away is moved upward.
  • the processing executed in S209 will be described with reference to FIG.
  • the positional relationship between the object 108 and the object 110 is as follows. That is, when the current position where the portable information processing apparatus 1 exists is used as a reference, the object related to the object 110 is located closer to the object related to the object 108. In such a case, according to S209, the object 108 and the object 110 are arranged so as to be shifted so that the object 108 is located above the object 110 as shown in FIG.
  • the control unit 52 After executing S209, the control unit 52 ends the display image creation process, and the process proceeds to S112 in FIG.
  • S112 of FIG. 3 an image indicated by the image data created through S204, S206, and S209 is displayed.
  • S112 of FIG. 4 For example, if the tilt angle information acquired in S102 of FIG. 3 indicates an elevation angle, S206 and S209 are executed, and image data indicating an image as shown in FIG. 4 is created, and S112 of FIG. Then, it is displayed as shown in FIG. That is, the transparency of an object that does not exist in the attention range is increased. In FIG. 4, the transparency of the objects 102, 106, 110, and 114 is increased.
  • Each object displayed in an overlapping manner is arranged with the object closer to the current position on the lower side and on the upper side as it gets farther away.
  • the user visually recognizes the image having such an arrangement.
  • S206 and S209 are executed to create image data indicating an image as shown in FIG. 5, and S112 of FIG. Then, it is displayed as shown in FIG. That is, the transparency of an object that does not exist in the attention range is increased.
  • the transparency of the objects 104, 108, 112 is increased.
  • Each object displayed in an overlapping manner is arranged with the object closer to the current position on the lower side and on the upper side as it gets farther away.
  • the user visually recognizes the image having such an arrangement.
  • the image including the objects 102 to 114 shown in FIGS. 4 and 5 includes a small map 120.
  • the small map creation process is a process for creating the small map 120 shown in FIGS. 4 and 5.
  • the control unit 52 that has started the small map creation process illustrated in FIG. 8 controls the wireless communication unit 60 and accesses the database device 90.
  • the control unit 52 acquires map data indicating a map image (map information) around the current position based on the position information acquired in S104 of FIG. 3 (S300).
  • the periphery of the current position is a predetermined range in all directions including the current position and including the current position.
  • the control unit 52 creates a small map 120, which is a surrounding map image including the current position, from the map data acquired in S300 (S302).
  • the control unit 52 arranges the current position information 122 indicating the current position of the user on the small map 120 created in S302 based on the position information acquired in S104 of FIG. 3 (S304).
  • the control unit 52 arranges the range information 124 on the small map 120 in which the current position information 122 is arranged (S306).
  • the range information 124 indicates a range that is set as a user's visual range corresponding to the orientation information acquired in S100 of FIG. That is, the range information 124 matches the range set in S202 of FIG. 4 and is set as described above.
  • the control unit 52 arranges the attention range information 126 on the range information 124 in S306 based on the inclination angle information acquired in S102 of FIG. 3 (S308).
  • the control unit 52 determines the attention range indicated by the attention range information 126.
  • the attention range is a range related to a predetermined distance corresponding to the tilt angle information.
  • the head When a human visually recognizes a distance, the head is inclined so that the face faces upward. Therefore, when the tilt angle information indicates an elevation angle, it can be determined that the user is viewing a distance. Conversely, when a person tries to visually recognize a nearby area, the head is tilted so that the face faces downward. Therefore, when the tilt angle information indicates the depression angle, the user can determine that the user is viewing an object at a relatively close position or a short distance. Therefore, when the inclination angle information acquired in S102 of FIG. 3 indicates an elevation angle, the control unit 52 sets a predetermined first distance range based on the current position as the attention range.
  • the control unit 52 sets a predetermined second distance range based on the current position as the attention range.
  • the second distance range is a range closer to the current position than the first distance range.
  • the processing is performed in the same manner as in the case where either the elevation angle or the depression angle is indicated. May be. Further, the process of S208 may be omitted.
  • the attention range information 126 indicates a range in which a target object related to an object that is not made transparent exists in the range indicated by the range information 124. 4 and 5, the attention range information 126 is a hatched portion.
  • the range information 124 in which the attention range information 126 is arranged is in the form shown in FIG. The user who has recognized this can recognize that the objects 104, 108, and 112 that are not transparent are far from the current position.
  • the range information 124 in which the attention range information 126 is arranged is in the form shown in FIG. The user who recognizes this can recognize that the objects 102, 106, 110, and 114 that are not transparent are close to the current position.
  • control unit 52 After executing S308, the control unit 52 ends the small map creation process, and proceeds to S202 in FIG. In S204 of FIG. 6, image data indicating an image including the small map 120 created by the small map creation process is created in addition to the object.
  • the portable information processing apparatus 1 of the present embodiment it is possible to display an image in which the objects 102 to 114 are arranged in a state as shown in FIG.
  • FIG. 4 when the user is looking up and looking far away, the objects 104, 108, and 112 related to the object in the attention range far from the current position are displayed with priority so as to be easily seen.
  • FIG. 5 when the user is looking down and looking nearby, priority is given so that the objects 102, 106, 110, and 114 related to the object in the attention range nearby from the current position are easily visible. Is displayed. Therefore, the user can preferably visually recognize the object displayed with priority, and can suitably search for the target object.
  • FIG. 7 when the objects 102 to 114 are displayed in the same state with respect to the visibility, the objects 102 to 114 overlap each other, and it is difficult for the user to find the target object. It becomes.
  • the user can recognize the current position by the small map 120 including the current position information 122 displayed together with the objects 102 to 114 as shown in FIG. 4 or FIG. it can.
  • the user recognizes the relative positional relationship between the position of the object related to the object that can be visually recognized with priority and the current position by the small map 120 including the range information 124 in which the attention range information 126 is arranged. Can do.
  • the portable information processing apparatus 1 is configured by the HMD 10 and the system box 50.
  • the HMD 10 and the system box 50 may be configured integrally.
  • a configuration in which each unit included in the system box 50 is built in a housing as shown in FIG. 2 constituting the image display unit 14 may be adopted.
  • the portable information processing apparatus is an integrally configured HMD.
  • the portable information processing device may be any information processing device that is portable and includes a predetermined display unit and can perform arithmetic processing.
  • the portable information processing apparatus may be a mobile phone or a PDA (Personal Digital Assistant) in addition to the HMD. Further, a so-called smartphone in which a mobile phone and a PDA are integrated may be used.
  • the size of the object may be varied.
  • the image size of the object whose transparency is improved is smaller than the image size of the object whose transparency is not improved.
  • the order of the overlapping objects may be changed.
  • the object whose transparency is not improved is arranged in front of the object whose transparency is improved, instead of the order based on the distance from the current position.
  • the range of interest in S308 of the small map creation process shown in FIG. 6 may be determined according to the angular distance information indicating the concept in FIG.
  • the angle distance information defines the relationship between the angle range and the distance range. As shown in FIG. 9, in the angular distance information, the angle range and the distance range have a relationship that changes exponentially. As for the angular distance information, a specific relationship between the angle range and the distance range is illustrated with reference to FIG. 9.
  • the distance range A “1 m to 10 m” is related to the angle range A “ ⁇ 10 ° to 0 °”.
  • the distance range B “10 m to 100 m” is related to the angle range B “0 ° to 10 °”.
  • the distance range C “100 m to 1000 m” is related to the angle range C “10 ° to 20 °”.
  • about an angle range minus shows a depression angle and plus shows an elevation angle.
  • the distance range indicates a position based on the current position.
  • the distance range “100 m to 1000 m” is a range 100 m to 1000 m away from the current position.
  • the width of the related distance range is set to increase as the angle range increases in the positive direction. That is, in the case where the user is viewing a distance, the determined attention range is set to be a wider range than when the user is looking near.
  • Such a setting can be the same for the first distance range and the second distance range described above (the width of the first distance range> the width of the second distance range).
  • the angular distance information is configured in a table format.
  • the angular distance information is stored in a location accessible by the control unit 52. For example, it is stored in the ROM constituting the control unit 52. In addition, it may be stored in the database device 90.
  • the control unit 52 controls the wireless communication unit 60 to access the database device 90.
  • the control unit 52 accesses the angular distance information in S308 of FIG.
  • the control unit 52 that has accessed the angular distance information uses the inclination indicated by the inclination angle information acquired in S102 of FIG. 3 (the angle formed with the horizontal plane for the vertical inclination of the user's head) in the angular distance information. It is specified which angle range is included.
  • the control part 52 specifies the distance range related to the specified angle range.
  • the control unit 52 determines the identified distance range as the attention range based on the current position. Specific processing will be described based on the angular distance information exemplified above.
  • the inclination based on the inclination angle information acquired in S102 of FIG. 3 is assumed to be 15 °.
  • the control unit 52 specifies an angle range C “10 ° to 20 °” including 15 ° according to 15 °.
  • the control unit 52 specifies the distance range C “100 m to 1000 m” related to the specified angle range C “10 ° to 20 °”, and determines “100 m to 1000 m” as the attention range.
  • the processing after determining the attention range is as described above, and the description thereof is omitted.
  • the portable information processing device 1 may have a navigation function.
  • FIG. 4 will be specifically described as an example.
  • the user operates the operation unit 64 and inputs a command for starting the navigation function.
  • the user selects one of the displayed objects 102 to 114 while viewing the image shown in FIG.
  • the user selects the object 112.
  • the control unit 52 executes navigation using the target object related to the selected object 112 as the destination, using position information acquired by the GPS communication unit 54 and the like. The user proceeds according to the guidance displayed on the image display unit 14.
  • HMD head mounted display
  • SYMBOLS image display part
  • Image signal receiving part Inclination angle acquisition part
  • Inclination angle information transmission part 50
  • System box 52 Control part
  • GPS communication part 56
  • Inclination angle information reception part 60
  • Wireless communication part 62
  • Image signal transmission part 80
  • Signal cable 90

Abstract

携帯型情報処理装置では、ユーザが視認している外界に存在する対象物に関するオブジェクト102~114が表示される。例えば、第一のオブジェクトであるオブジェクト104と、第二のオブジェクトであるオブジェクト102とは、表示部における視認性が異なるようにされる。第一のオブジェクトは、携帯型情報処理装置の位置からの距離が、ユーザの頭部の傾きに関する傾斜角情報に対応した所定の距離にある第一の対象物に関するオブジェクトである。第二のオブジェクトは、第一の対象物とは異なる距離にある第二の対象物に関するオブジェクトである。

Description

携帯型情報処理装置、携帯型情報処理装置のためのコンピュータプログラム、及び表示制御方法
 本発明は、携帯型情報処理装置、携帯型情報処理装置のためのコンピュータプログラム、及び表示制御方法に関する。
 近年、各種の情報処理装置が携帯可能な大きさにまで小型化されている。そして、携帯可能な装置に関する提案がなされている(例えば、特許文献1参照)。特許文献1には、携帯ナビゲーション装置が開示されている。特許文献1の携帯ナビゲーション装置は、表示装置と、音楽を出力するスピーカー手段とを備える。携帯ナビゲーション装置では、まず、目的地の位置情報が入力される。その後、現在地から目的地までの経路を案内する経路画像が表示装置の画面上に表示され、目的地の現在方位と頭部正面方向の現在方位との角度差に応じて楽音の出力条件が変更される。これによって、楽音の音像が目的地の現在方位に定位される。
 なお、外部の計測装置によって計測された頭部装着型表示装置の位置姿勢に応じた仮想空間画像を生成して、頭部装着型表示装置の表示部に出力する画像処理方法が提案されている(例えば、特許文献2参照)。特許文献2の画像処理方法によれば、視点位置から視線方向に延長した直線と交差するオブジェクトのうち、最も視点位置に近いオブジェクトが、注視されているオブジェクトとして特定される。そして、特定したオブジェクトが、第1の時間以上注視されている場合、当該オブジェクトに関する情報が表示部上に表示される。
特開2003-177033号公報 特開2005-38008号公報
 ユーザが視認している外界に存在する対象物に関するオブジェクトを表示する携帯型情報処理装置を利用すると、ユーザは、多くのオブジェクトを取得することが可能になる。ただし、ユーザが視認している外界には、多くの対象物が存在する。例えば、ユーザの現在位置の近くにある対象物もあれば、遠くにある対象物もある。ここで、携帯型情報処理装置が利用されるとき、所定の場所に固定されるのではなく、ユーザによって携帯される場合が多い。携帯型情報処理装置では、その携帯性が考慮されるため、携帯型情報処理装置における表示部は、例えば固定して利用されるパーソナルコンピュータ等と比較すると、小さい場合が多い。このような携帯型情報処理装置の表示部に、例えば、現在位置からの距離に関わりなく、多数の対象物に関するオブジェクトが、雑多に表示されると、ユーザが表示されているオブジェクトを好適に視認することが、困難となる。
 本開示は、ユーザが視認し易い状態で、ユーザが視認している外界に存在する対象物に関するオブジェクトを表示する携帯型情報処理装置、携帯型情報処理装置のためのコンピュータプログラム、及び表示制御方法を提供することを目的とする。
 上記従来の課題に鑑みなされた本開示の一側面は、ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示する携帯型情報処理装置であって、前記オブジェクトを表示する表示部と、前記携帯型情報処理装置の位置を示す位置情報を取得する位置取得部と、前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得手段と、前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定手段と、前記距離決定手段で決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理手段と、前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御手段と、を備える携帯型情報処理装置である。
 これによれば、傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトと、第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトとの視認性を異ならせて表示することができる。ユーザは、第一のオブジェクトと、第二のオブジェクトとを、好適に区別して視認することができる。
 この携帯型情報処理装置は、他の構成をさらに含む携帯型情報処理装置とすることもできる。例えば、前記オブジェクト処理手段は、前記傾斜角取得部で取得された前記傾斜角情報が仰角を示す場合、前記距離決定手段で決定された前記対象物までの距離が、前記位置取得部で取得された前記位置情報によって示される前記位置を基準とした所定の第一の距離範囲に含まれる前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記第一の距離範囲に含まれない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせ、前記傾斜角取得部で取得された前記傾斜角情報が俯角を示す場合、前記距離決定手段で決定された前記対象物までの距離が、前記位置取得部で取得された前記位置情報によって示される前記位置を基準とした所定の範囲であって、前記第一の距離範囲より前記位置情報によって示される前記位置に接近している第二の距離範囲に含まれる前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記第二の距離範囲に含まれない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせる、ようにしてもよい。これによれば、傾斜角情報が仰角を示す場合、つまりユーザが上を向いて遠くを視認している場合、第一の距離範囲にある第一の対象物に関する第一のオブジェクトに対して、第二のオブジェクトの視認性を異ならせることができる。また、傾斜角情報が俯角を示す場合、つまりユーザが下を向いて近くを視認している場合、第一の距離範囲より携帯型情報処理装置の位置に接近している第二の距離範囲にある第一の対象物に関する第一のオブジェクトに対して、第二のオブジェクトの視認性を異ならせることができる。
 また、角度についての角度範囲と距離についての距離範囲との関係が定められた角度距離情報に従い、前記傾斜角取得部で取得された前記傾斜角情報によって示される前記ユーザの頭部の上下方向の傾きの角度を含む前記角度範囲に関係付けられた前記距離範囲を、前記角度距離情報によって特定する角度距離特定手段を備え、前記オブジェクト処理手段は、前記距離決定手段で決定された前記対象物毎の各距離のうち、前記角度距離特定手段によって特定された前記距離範囲にある前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記角度距離特定手段によって特定された前記距離範囲にない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせる、ようにしてもよい。これによれば、角度距離情報に従い、ユーザの頭部の上下方向の傾きに対応する距離範囲を特定し、第一のオブジェクトと第二のオブジェクトとの視認性を異ならせることができる。
 また、前記オブジェクト処理手段は、前記第二のオブジェクトの前記表示部における透明度が、前記第一のオブジェクトの前記表示部における透明度と比較して高い状態とする、ようにしてもよい。これによれば、透明度の変化によって視認性を異ならせることができる。ユーザは、第一のオブジェクトと、第二のオブジェクトとを、透明度の違いによって好適に区別して視認することができる。
 また、前記オブジェクト処理手段は、前記第一のオブジェクト及び前記第二のオブジェクトが、前記外界における前記第一の対象物及び前記第二の対象物それぞれの位置に対応して配置されたとき、前記第一のオブジェクト及び前記第二のオブジェクトが前記表示部に重なって表示されることとなる場合、前記第一のオブジェクト及び前記第二のオブジェクトを、前記表示部の表示領域の上下方向にずらして配置する、ようにしてもよい。これによれば、第一のオブジェクトと、第二のオブジェクトとを上下方向にずらして、さらに好適に区別して視認させることができる。
 また、前記ユーザの顔面が向いている方位を示す方位情報を取得する方位取得部と、前記方位取得部で取得された前記方位情報に従って、前記対象取得手段で取得された前記オブジェクトから、前記表示部に表示させる前記オブジェクトそれぞれをさらに選択する対象選択手段と、を備え、前記距離決定手段は、前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得され且つ前記対象選択手段で選択された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する、ようにしてもよい。これによれば、距離を決定するオブジェクトを選択し、効率よく距離を決定するための処理を実行することができる。
 また、前記位置取得部で取得された前記位置情報によって示される前記位置を含む全方位における所定の範囲の地図を示す地図情報を取得する地図情報取得手段を備え、前記表示制御手段は、さらに、前記地図情報と、前記方位情報に対応し且つ前記ユーザの視認範囲とされる範囲を示す範囲情報と、を前記表示部に表示する、ようにしてもよい。これによれば、位置取得部で取得された位置情報によって示される位置を基準として、ユーザの視認範囲に対応した範囲をユーザに認識させることができる。
 本開示の他の側面は、ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示し、前記オブジェクトを表示する表示部と、自装置の位置を示す位置情報を取得する位置取得部と、前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、を備える携帯型情報処理装置を制御するコンピュータが読み取り可能なコンピュータプログラムであって、前記コンピュータを、前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得手段と、前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定手段と、前記距離決定手段で決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理手段と、前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御手段と、して機能させるためのコンピュータプログラムである。
 これによれば、本開示の一側面における携帯型情報処理装置を実現することができる。なお、このコンピュータプログラムは、上述した構成をさらに含む携帯型情報処理装置のためのコンピュータプログラムとすることもできる。
 本開示のさらに他の側面は、ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示し、前記オブジェクトを表示する表示部と、自装置の位置を示す位置情報を取得する位置取得部と、前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、を備える携帯型情報処理装置における表示制御方法であって、前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得ステップと、前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得ステップで取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定ステップと、前記距離決定ステップで決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理ステップと、前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御ステップと、を有することを特徴とする表示制御方法である。
 これによれば、傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトと、第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトとの視認性を異ならせて表示することができる。ユーザは、第一のオブジェクトと、第二のオブジェクトとを、好適に区別して視認することができる。
 本開示によれば、ユーザが視認し易い状態で、ユーザが視認している外界に存在する対象物に関するオブジェクトを表示する携帯型情報処理装置、携帯型情報処理装置のためのコンピュータプログラム、及び表示制御方法を得ることができる。
携帯型情報処理装置を示す図であって、携帯型情報処理装置を構成する、ヘッドマウントディスプレイ及びシステムボックスのブロック構成図である。 ヘッドマウントディスプレイ及びシステムボックスの外観図であって、ヘッドマウントディスプレイがユーザに装着された状態を示す図である。 携帯型情報処理装置で実行されるメイン処理のフローチャートである。 頭部の傾斜角が仰角である場合において画像を視認している状態を示す図である。 頭部の傾斜角が俯角である場合において画像を視認している状態を示す図である。 表示画像作成処理のフローチャートである。 オブジェクト同士が重なっている状態を示す図である。 小マップ作成処理のフローチャートである。 角度範囲と距離範囲とが関係付けられた角度距離情報の概念を示す図である。
 本開示を実施するための実施形態について、図面を用いて説明する。本開示は、以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下に示す構成の一部は、省略し又は他の構成等に置換してもよい。また、他の構成を含むようにしてもよい。
 <携帯型情報処理装置>
 携帯型情報処理装置1は、図1に示すように、ヘッドマウントディスプレイ(以下、「HMD」ともいう。)10と、システムボックス50とで構成されている。HMD10とシステムボックス50とは、図2に示すように、所定の信号ケーブル80によって通信可能に接続されている。HMD10は、例えばシースルー型のHMDである。ユーザは、図2に示す状態において、HMD10で表示されている画像を視認しつつ、ユーザが存する外界の像を、表示される画像と重ねて視認することができる。HMD10は、通常の眼鏡と同様のフレーム構造12を有する。HMD10は、フレーム構造12によって、ユーザの顔に支持される。フレーム構造12の所定の位置には、画像表示部14が取り付けられている。画像表示部14は、ユーザが視認する画像を、ユーザの眼、例えば図2に基づけば、左眼に表示する。画像表示部14は、フレーム構造12に取り付けられた状態において、HMD10を装着したユーザの左眼と略同一の高さとなる位置に配置されている。画像表示部14には、ハーフミラー16が固定されている。
 HMD10は、画像表示部14等の他、図1に示すように、画像信号受信部18と、傾斜角取得部20と、傾斜角情報送信部22と、方位取得部24と、方位情報送信部26とを備える。画像信号受信部18は、後述するようにシステムボックス50で作成され、システムボックス50から送信されてくる、所定の画像を示す画像信号を受信する。画像表示部14は、例えば、網膜走査型ディスプレイによって構成される。網膜走査型ディスプレイは、画像信号受信部18で受信された画像信号に応じた画像光を二次元走査する。画像表示部14は、その走査された画像光をユーザの左眼に導き網膜上に画像を形成する。画像表示部14から出射された画像光は、ユーザの左眼前方の位置に配置されたハーフミラー16で反射して、左眼に導かれる。HMD10を装着しているユーザは、このようにして、所定の画像を視認する。画像表示部14は、網膜走査型ディスプレイの他、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイなどの空間光変調素子や、その他の表示デバイスを用いた構成とすることもできる。
 傾斜角取得部20は、例えば加速度センサによって構成される。傾斜角取得部20は、図2に示すようにユーザの頭部に装着されたHMD10の上下方向の傾きについて、水平面(図4及び図5に「水平」と記載の点線参照)とのなす角を示す傾斜角情報を検出し取得する。傾斜角取得部20によって取得される傾斜角情報は、HMD10が図2に示すようにユーザの頭部に支持され、水平な状態に維持されたときを基準の0°とした角度を示すように設定されている。図2に示すようにHMD10を装着したユーザが、例えば上方にある対象物を視認するために、頭部を上下方向の上向きに傾けると、これに対応してHMD10も傾く。同様に、HMD10を装着したユーザが、例えば下方にある対象物を視認するために、頭部を上下方向の下向きに傾けると、これに対応してHMD10も傾く。従って、傾斜角取得部20によって取得される傾斜角情報は、ユーザの頭部の上下方向の傾きについて、水平面とのなす角を示す情報とみなせる。傾斜角情報送信部22は、傾斜角取得部20で取得された傾斜角情報を、システムボックス50に送信する通信インターフェースである。傾斜角情報送信部22には、信号ケーブル80が接続される。傾斜角情報は、傾斜角情報送信部22から信号ケーブル80を介してシステムボックス50に送信される。
 方位取得部24は、例えば磁気センサによって構成される。方位取得部24は、図2に示すようにユーザの頭部に装着されたHMD10が向いている方位(方角)を示す方位情報を検出し取得する。図2に示すようにHMD10を装着したユーザが、例えば南西にある対象物を視認するために、南西の方角を向くと、これに対応して、HMD10の向きも南西となる。従って、方位取得部24によって取得される方位情報は、ユーザの顔面が向いている方位を示す情報とみなせる。方位情報送信部26は、方位取得部24で取得された方位情報を、システムボックス50に送信する通信インターフェースである。方位情報送信部26には、信号ケーブル80が接続される。方位情報は、方位情報送信部26から信号ケーブル80を介してシステムボックス50に送信される。なお、傾斜角情報送信部22及び方位情報送信部26は、ハードウェア的に一つの通信インターフェースとしてもよい。一つの通信インターフェースとした場合、部品点数を少なくし、HMD10の構成をシンプルにすることができる。
 システムボックス50は、携帯型情報処理装置1が利用される場合、ユーザの腰等に取り付けられる。システムボックス50は、制御部52と、GPS通信部54と、傾斜角情報受信部56と、方位情報受信部58と、無線通信部60と、画像信号送信部62と、操作部64と、電源スイッチ66とを備える。これら各部は、図2に示すように、システムボックス50を構成する筐体の内部に収納されている。制御部52は、携帯型情報処理装置1を制御し、携帯型情報処理装置1で実行される各種の処理を実行する。制御部52は、ハードウェア的には、例えば、CPUとROMとRAMとを含む。CPUは、演算処理を実行する。ROMは、後述する図3,図6及び図8に示す各処理のためのコンピュータプログラムを含む各種の処理のためのコンピュータプログラムを記憶する。RAMは、CPUがROMに記憶されたコンピュータプログラムを実行する際の作業領域となる。また、制御部52は、グラフィックス・プロセッシング・ユニット(以下、「GPU」ともいう。)と、VRAM(Video RAM)とを含む。GPUは、所定の画像データに対して再生処理を実行し、画像データによって示される画像を作成する。VRAMは、作成された画像を記憶する。制御部52において、例えば、CPUは、ROMに記憶されたコンピュータプログラムを、RAM上に読み出し、読み出したコンピュータプログラムをRAM上で実行する。これによって、各種の機能が実行される。従って、制御部52は、各種の機能手段を構成する。
 GPS通信部54は、GPS衛星から位置情報(GPS情報)を受信し取得する。位置情報は、HMD10とシステムボックス50とから構成される携帯型情報処理装置1が存する現在位置を示す。傾斜角情報受信部56は、HMD10の傾斜角情報送信部22から信号ケーブル80を介して送信されてくる傾斜角情報を受信する通信インターフェースである。方位情報受信部58は、HMD10の方位情報送信部26から信号ケーブル80を介して送信されてくる方位情報を受信する通信インターフェースである。傾斜角情報受信部56及び方位情報受信部58には、信号ケーブル80が接続される。なお、傾斜角情報受信部56及び方位情報受信部58は、ハードウェア的に一つの通信インターフェースとしてもよい。一つの通信インターフェースとした場合、部品点数を少なくし、システムボックス50の構成をシンプルにすることができる。無線通信部60は、携帯型情報処理装置1の外部に設けられている所定の装置と、無線通信を実行するための通信インターフェースである。例えば、無線通信部60は、データベース装置90にアクセスし、データベース装置90から所定のデータ、例えばオブジェクトを含むオブジェクトデータを受信する。
 画像信号送信部62は、制御部52によって作成され記憶されている画像を含む画像信号を、HMD10に送信する通信インターフェースである。画像信号送信部62から送信された画像信号は、HMD10の画像信号受信部18で受信される。操作部64は、例えば所定のキーによって構成される。操作部64は、システムボックス50に対する所定の指令を入力するための入力インターフェースである。ユーザは、所定の指令を入力する際、操作部64を操作する。電源スイッチ66は、携帯型情報処理装置1への電源の供給を開始し遮断させるためのスイッチである。電源スイッチ66が入れられた場合、システムボックス50に、図1及び図2には図示されていないバッテリーから電源が供給される。バッテリーからの電源は、信号ケーブル80と同様に配置された電源ケーブルを介して、HMD10にも供給される。一方、電源スイッチ66が切られた場合、システムボックス50及び/又はHMD10へのバッテリーからの電源供給は遮断される。
 データベース装置90は、地理的情報が登録されたデータベースを記憶する装置である。例えば、所定の地理的な位置に存在する対象物に関するオブジェクト、その対象物が存在する位置の緯度と経度とで構成される位置情報、その対象物に関する画像(写真)データ、その対象物の説明情報等が関連付けられたオブジェクトデータが登録されている。対象物には、例えば、観光スポットなどの所定の場所又は建造物、ショップ、道路(街道)等が含まれる。対象物に関するオブジェクトとしては、対象物のサムネイル画像又は対象物の名称等が例示される。なお、以下の説明では、オブジェクトが、対象物のサムネイル画像である場合を例に説明する。データベース装置90は、地図データを記憶している。
 <携帯型情報処理装置で実行される処理>
 携帯型情報処理装置1で実行される処理について、図3に示すメイン処理と、図6に示す表示画像作成処理と、図8に示す小マップ作成処理とを説明する。
  (メイン処理)
 図3に示すメイン処理は、HMD10及びシステムボックス50の電源が入れられた場合に開始される。ユーザが、操作部64を操作し、メイン処理の開始のための指令を入力した場合に開始されるようにしてもよい。メイン処理を開始した制御部52は、方位取得部24によって検出される方位情報を取得する(S100)。制御部52は、方位情報受信部58を制御して方位情報を受信する。方位情報は、方位情報送信部26によって送信される。ここで取得される方位情報は、S100実行時点での、ユーザの頭部に装着されたHMD10が向いている方位、即ちユーザの顔面が向いている方位を示している。
 制御部52は、傾斜角取得部20によって検出される傾斜角情報を取得する(S102)。制御部52は、傾斜角情報受信部56を制御して傾斜角情報を受信する。傾斜角情報は、傾斜角情報送信部22によって送信される。ここで取得される傾斜角情報は、ユーザの頭部に装着された状態のHMD10の上下方向の傾きについて、S102実行時点での、水平面とのなす角を示している。この傾きは、上述した通り、S102実行時点におけるユーザの頭部の上下方向の傾きについて、S102実行時点での水平面とのなす角を示すものとして取り扱われる。続けて制御部52は、GPS通信部54を制御し、位置情報を取得する(S104)。ここで位置情報は、S104実行時点において、携帯型情報処理装置1(HMD10及びシステムボックス50)が存する現在位置を示している。
 例えば、S100で取得された方位情報が、方位「南西」を示しているとする。S102で取得された傾斜角情報が、傾き「15°」又は「-15°」(プラスは仰角を示し、マイナスは俯角を示す。)を示しているとする。S104で取得された位置情報が、「北緯42°、西経75°」を示しているとする。これら情報によれば、携帯型情報処理装置1は、北緯42°、西経75°の位置に存し、HMD10は、水平面に対して上下方向の上向きに15°又は下向きに15°傾斜し、南西を向いていることが特定される。つまり、携帯型情報処理装置1を所持したユーザは、北緯42°、西経75°の位置で、南西を向いて、15°仰角した方向又は15°俯角した方向に視線を向けていることが特定される。
 S100~S104を実行した後、制御部52は、無線通信部60を制御し、データベース装置90にアクセスする。制御部52は、S104で取得された位置情報に基づき、現在位置の周囲に存する対象物を特定する。制御部52は、特定された対象物についてデータベース装置90に登録されているオブジェクトデータを取得する(S106)。オブジェクトデータは、上述した通り、特定された対象物に関するオブジェクトを含む。従って、S106によれば、特定された対象物に関するオブジェクトを含むオブジェクトデータが取得される。現在位置の周囲は、現在位置を中心として、半径X(Xは、任意の数)メートルというように設定される。例えば、視点高さ160cmにおける地平線までの距離である4,500mと設定される。複数の対象物が特定された場合、制御部52は、特定された全ての対象物それぞれについて、オブジェクトデータを取得する。
 制御部52は、S104で取得された位置情報によって示される現在位置に従って、この現在位置と、S106で取得されたオブジェクトデータに関する対象物との相対位置を決定し、この対象物までの距離を決定する(S108)。制御部52は、S106で複数のオブジェクトデータが取得されていた場合、取得された全てについて、相対位置及び距離をそれぞれ決定する。制御部52は、S104で取得された位置情報と、S106で取得されたオブジェクトデータに含まれる位置情報とを用いて、S108を実行する。例えば、制御部52は、前述の二個の位置情報から、処理の対象となっているオブジェクトデータに関する対象物は、現在位置を基準としたとき、南の方向に存在していると決定する。同様に、制御部52は、前述の二個の位置情報から、処理の対象となっているオブジェクトデータに関する対象物までの距離は、現在位置から100m離れていると決定する。このS108によれば、S106で取得されたオブジェクトデータに関する対象物それぞれが、現在位置から、何れの方位にどれだけ離間した位置に存在しているかが特定される。この相対位置は、後述する図6のS202において利用される。
 続けて制御部52は、表示画像作成処理を実行する(S110)。表示画像作成処理の説明は、後述する。制御部52は、S110の表示画像作成処理で作成された画像データによって示される画像を表示する(S112)。S112で制御部52を構成するGPUは、この画像データを再生処理し、画像データによって示される画像を作成し、同じく制御部52を構成するVRAMに記憶する。制御部52は、画像信号送信部62を制御し、VRAMに記憶されている画像を示す画像信号を、HMD10に送信する。送信された画像信号は、画像信号受信部18で受信される。画像表示部14は、受信された画像信号によって示される画像を、上述した方法で表示する。これによって、ユーザは、表示された画像を視認する。例えば、ユーザの頭部の傾斜角が仰角であって、S102で取得された傾斜角情報が仰角を示すものであった場合、ユーザは、図4に示すような仰角の状態で、同図に示すような画像を視認する。また、ユーザの頭部の傾斜角が俯角であって、S102で取得された傾斜角情報が俯角を示すものであった場合、ユーザは、図5に示す状態で、同図に示すような画像を視認する。なお、図4及び図5に示すユーザが視認する画像において、背景としての街並みを示す風景は、これら図に例示する7個のオブジェクト102~114に関する7個の対象物が存在している外界の像であって、ユーザがハーフミラー16を通して視認している外界の像を示すものである。
 S112を実行した後、制御部52は、終了を示す指令が入力されているかについて判断する(S114)。終了を示す指令は、電源スイッチ66が切られHMD10に対する電源の供給が遮断されることによって入力される。また、終了を示す指令は、ユーザが操作部64を操作することによって入力される。終了を示す指令が入力されていない場合(S114:No)、制御部52は、処理をS100に戻し、上述した各処理を繰り返して実行する。一方、制御部52は、終了を示す指令が入力されている場合(S114:Yes)、メイン処理を終了する。なお、図4又は図5に示すような画像を視認しているユーザは、操作部64を操作し、この画像に含まれるオブジェクト102~114の何れかを選択することができる。制御部52は、例えば、オブジェクト102~114から選択されたオブジェクトに関する対象物の説明情報等を、画像表示部14で表示する。ユーザは、対象物の説明情報等を視認する。
  (表示画像作成処理)
 表示画像作成処理は、図4及び図5に例示するオブジェクト102~114のようなオブジェクト及び小マップ120を含む画像を作成するための処理である。図3に示すメイン処理のS110で、図6に示す表示画像作成処理を開始した制御部52は、小マップ作成処理を実行する(S200)。小マップ作成処理の説明は、後述する。続けて制御部52は、図3のS106で取得されたオブジェクトデータを対象として、図3のS100で取得された方位情報から、ユーザの正面方向にある対象物に関するオブジェクトデータを選択する(S202)。S202でオブジェクトデータは、図3のS108で決定された個々の対象物に対する相対位置に従い且つユーザの視認範囲(図4及び図5で「視認範囲」と記載の両矢の矢印参照)とされる範囲に従って選択される。ユーザの視認範囲とされる範囲は、通常の人間が視認できる範囲とされている視野範囲である。例えば、図3のS100~S104で取得された各情報によって、携帯型情報処理装置1を所持したユーザが、北緯42°、西経75°の位置で、南西を向いて、15°仰角した方向又は15°俯角した方向に視線を向けていることが特定されているとする。S202では、このような状態でユーザが視認できるであろう範囲が、図3のS100で取得された方位情報に対応し且つユーザの視認範囲とされる範囲として設定される。なお、ユーザの視認範囲(人間の視野範囲)と、画像表示部14で画像を表示することができる表示領域(画角範囲)とが相違する場合(視認範囲>表示領域)もある。従って、S202では、画像表示部14の表示領域(画角範囲)を考慮するようにしてもよい。この場合、ユーザの視認範囲とされる範囲のうち、画像表示部14の表示領域に対応した範囲が特定される。S202の範囲は、この特定された範囲に基づいて設定される。制御部52は、設定された範囲内に含まれる位置情報を含むオブジェクトデータを、図3のS106で取得されたオブジェクトデータから選択する。
 S202を実行した後、制御部52は、S202で選択されたオブジェクトデータに含まれるオブジェクトを、S108において決定された相対位置に従い、外界における対象物の位置に対応させて配置する(S204)。そして、制御部52は、S200の小マップ作成処理で作成された小マップ120を含み、S202で選択されたオブジェクトデータに含まれるオブジェクトが配置された画像を示す画像データを作成する。小マップ120は、図4及び図5に示すような地図画像である。小マップ120の説明は、後述する。なお、S202で選択されたオブジェクトデータが、後述するS208の判断が肯定(S208:Yes)されるような関係である場合、S204では、次のような画像データが作成される。つまり、S204では、現在位置からの距離が近い対象物に関するオブジェクトが手前に配置され、以降、距離が遠くなるに従い、後ろ側に重なった状態で各オブジェクトが配置された画像を示す画像データが作成される。
 S205で制御部52は、S202で選択されたオブジェクトデータに関する対象物が、後述する図8に示す小マップ作成処理のS308にて決定される注目範囲の外に存在するかについて判断する。具体的には、制御部52は、図3のS108で決定された対象物までの距離と、S308にて決定される注目範囲の距離範囲とを比較する。対象物が注目範囲の外に存在する場合、制御部52は、S205の判断を肯定する(S205:Yes)。S205が肯定された場合(S205:Yes)、制御部52は、処理をS206に移行する。一方、対象物が注目範囲に存在する場合、制御部52は、S205の判断を否定する(S205:No)。S205が否定された場合(S205:No)、制御部52は、処理をS207に移行する。
 S206で制御部52は、対象の対象物、すなわち、注目範囲の外に存在する対象物に関するオブジェクトの透明度を上昇させる。なお、オブジェクトの透明度を上昇させるための処理の例として、注目範囲に存在しないオブジェクトが表示される際の輝度が、注目範囲に存在するオブジェクトが表示される際の輝度よりも暗く設定される。本実施形態では、図2に示すように、ユーザは、ハーフミラー16で反射した画像光を視認する。そして、ユーザは、ハーフミラー16を通して外界の像も同時に視認する。外界の明るさは一定なので、輝度が暗く設定された注目範囲に存在しないオブジェクトは、注目範囲に存在するオブジェクトに対して、透明度が上昇したようにユーザに視認される。これによれば、注目範囲に存在する対象物に関するオブジェクトの視認性と、注目範囲に存在しない対象物のオブジェクトの視認性とを、異ならせることができる。具体的には、注目範囲に存在するオブジェクトの視認性を、注目範囲に存在しない対象物のオブジェクトの視認性と比較して向上させることができる。S206では、S204で作成された画像データが用いられる。その後、制御部52は、処理をS207に移行する。
 S207で制御部52は、S202で選択された全てのオブジェクトデータに対して、S205の処理が実行されたかについて判断する。制御部52は、全てのオブジェクトデータに対して、S205の処理が実行された場合、S207の判断を肯定し(S207:Yes)、処理をS208に移行する。一方、制御部52は、S205の処理が実行されていないオブジェクトデータが残っている場合、S207の判断を否定し(S207:No)、処理をS205に戻す。S205~S207の処理によって、注目範囲に存在に存在しない対象物が透明に見える画像データ、換言すれば、注目範囲に存在する対象物の視認性が向上した画像データが作成される。
 続けて制御部52は、S204で作成された画像データによって示される画像におけるオブジェクトの配置において、オブジェクト同士が重なって表示されるかについて判断する(S208)。例えば、S204で作成された画像データが、図7のような状態とは異なり、オブジェクト同士が重ならない状態である場合、制御部52は、S208の判断を否定する(S208:No)。なお、S202で選択されたオブジェクトデータが一個である場合、S204で制御部52は、その一個のオブジェクトデータに含まれるオブジェクトを、S108において決定された相対位置に従い、外界における対象物の位置に対応させて配置し、S208の判断を否定(S208:No)する。S208が否定された場合(S208:No)、制御部52は、表示画像作成処理を終了し、処理を図3のS112に移行する。図3のS112では、S204で作成された画像データによって示される画像が表示される。一方、S204で作成された画像データが、図7のような状態である場合、制御部52は、オブジェクト同士が重なって表示されるとして、S208の判断を肯定する(S208:Yes)。例えば、図7では、オブジェクト102とオブジェクト104とは、重なっている。制御部52は、処理をS209に移行する。なお、図7のような状態である場合、S202では、図7に例示するような7個のオブジェクト102~114をそれぞれ含む7個のオブジェクトデータが選択されている。S204では、7個のオブジェクト102~114が、これらのオブジェクトデータに含まれるそれぞれの位置情報に従い、図7のように配置されている。図7に示すユーザが視認する画像において、背景としての街並みを示す風景は、この図に例示する7個のオブジェクト102~114に関する7個の対象物が存在している外界の像であって、ユーザがハーフミラー16を通して視認している外界の像を示すものである。従って、図7において、背景としての街並みを示す風景は、実際には、S204で作成された画像データとは関連しないものである。
 S208を実行した後、制御部52は、現在位置を基準として、近くにあるオブジェクトが下側で、遠くなるほど上側となるようにオブジェクトをずらして配置する(S209)。オブジェクトをずらす上下方向は、画像表示部14の表示領域の上下方向に一致する。S209では、S204で作成され、S206の処理が施された画像データが用いられる。また、S209では、この画像データによって示される画像において、重なり合うオブジェクト同士が対象となる。このとき、注目範囲に存在する対象物があれば、それらの対象物に関するオブジェクトは上下方向の中心近傍に配置される。なお、左右方向の位置は、S204の状態に維持される。そのため、この左右方向に対応する方向について、オブジェクトは、S204の状態が維持され、外界における対象物の位置に対応させて配置されている。そして、注目範囲に存在する対象物よりも近い距離に位置する対象物に関するオブジェクトが下方に、遠い距離に位置する対象物に関するオブジェクトが上方に、それぞれ移動される。S209で実行される処理を、便宜的に図7を用いて説明する。図7に示す各オブジェクト102~114のうち、例えば、オブジェクト108とオブジェクト110との位置関係は、次の通りとする。つまり、携帯型情報処理装置1が存する現在位置を基準としたとき、オブジェクト110に関する対象物は、オブジェクト108に関する対象物より近い位置に存在している。このような場合、S209によれば、オブジェクト108及びオブジェクト110は、図7に示すように、オブジェクト108がオブジェクト110に対して上側となるようにずらして配置される。
 S209を実行した後、制御部52は、表示画像作成処理を終了し、処理を図3のS112に移行する。この場合、図3のS112では、S204、S206及びS209を経て作成された画像データによって示される画像が表示される。例えば、図3のS102で取得された傾斜角情報が仰角を示している場合、S206及びS209が実行されることで、図4に示すような画像を示す画像データが作成され、図3のS112で、図4のように表示される。つまり、注目範囲に存在しないオブジェクトは、透明度が上昇されている。図4では、オブジェクト102,106,110,114の透明度が上昇されている。そして、重なって表示される各オブジェクトは、現在位置から近くにあるオブジェクトを下側とし、遠くになるほど上側に配置されている。ユーザは、このような配置とされた画像を視認する。また、図3のS102で取得された傾斜角情報が俯角を示している場合、S206及びS209が実行されることで、図5に示すような画像を示す画像データが作成され、図3のS112で、図5のように表示される。つまり、注目範囲に存在しないオブジェクトは、透明度が上昇されている。図5では、オブジェクト104,108,112の透明度が上昇されている。そして、重なって表示される各オブジェクトは、現在位置から近くにあるオブジェクトを下側とし、遠くになるほど上側に配置されている。ユーザは、このような配置とされた画像を視認する。なお、図4及び図5に示すオブジェクト102~114を含む画像は、小マップ120を含む。
  (小マップ作成処理)
 小マップ作成処理は、図4及び図5に示す小マップ120を作成するための処理である。図6に示す表示画像作成処理のS200で、図8に示す小マップ作成処理を開始した制御部52は、無線通信部60を制御し、データベース装置90にアクセスする。制御部52は、図3のS104で取得された位置情報に基づき、現在位置の周囲の地図画像(地図情報)を示す地図データを取得する(S300)。現在位置の周囲とは、現在位置を含み、現在位置を含む全方位における所定の範囲である。制御部52は、S300で取得された地図データから、現在位置を含む周囲の地図画像である小マップ120を作成する(S302)。制御部52は、図3のS104で取得された位置情報に基づき、S302で作成された小マップ120上に、ユーザの現在位置を示す現在位置情報122を配置する(S304)。
 制御部52は、現在位置情報122が配置された小マップ120上に、範囲情報124を配置する(S306)。範囲情報124は、図3のS100で取得された方位情報に対応したユーザの視認範囲とされる範囲を示す。つまり、範囲情報124は、図4のS202で設定される範囲に一致し、上述したように設定される。続けて制御部52は、図3のS102で取得された傾斜角情報に基づき、S306における範囲情報124上に注目範囲情報126を配置する(S308)。制御部52は、注目範囲情報126を配置するに際し、注目範囲情報126によって示される注目範囲を決定する。ここで、注目範囲とは、傾斜角情報に対応した所定の距離に関連する範囲である。人間は、遠くを視認するとき、顔面が上方を向くように頭部を傾斜させる。従って、傾斜角情報が、仰角を示すものであるとき、ユーザは遠くを視認していると判定することができる。逆に、人間は、近くを視認しようとするとき、顔面が下方を向くように頭部を傾斜させる。従って、傾斜角情報が、俯角を示しているとき、ユーザは、比較的近い位置又は近距離にある対象物を視認していると判定することができる。よって、図3のS102で取得された傾斜角情報が仰角を示している場合、制御部52は、現在位置を基準とした所定の第一の距離範囲を注目範囲とする。これに対し、図3のS102で取得された傾斜角情報が俯角を示している場合、制御部52は、現在位置を基準とした所定の第二の距離範囲を注目範囲とする。第一の距離範囲と第二の距離範囲とについて、第二の距離範囲は、第一の距離範囲より現在位置に接近した範囲である。図3のS102で取得された傾斜角情報が水平(0°)を示している場合については、仰角を示していた場合又は俯角を示していた場合の何れか一方と同様に処理されるようにしてもよい。また、S208の処理が省略されるようにしてもよい。
 注目範囲情報126は、範囲情報124によって示される範囲のうち、透明にされていないオブジェクトに関する対象物が存在している範囲を示すものである。なお、図4及び図5において、注目範囲情報126は、ハッチングされた部分である。例えば、傾斜角情報が仰角を示すものであった場合、注目範囲情報126が配置された範囲情報124は、図4に示す態様となる。これを視認したユーザは、透明ではないオブジェクト104,108,112が、現在位置から遠くにあることを認識することができる。一方、傾斜角情報が俯角を示すものであった場合、注目範囲情報126が配置された範囲情報124は、図5に示す態様となる。これを視認したユーザは、透明ではないオブジェクト102,106,110,114が、現在位置から近くにあることを認識することができる。
 S308を実行した後、制御部52は、小マップ作成処理を終了し、処理を図6のS202に移行する。図6のS204では、オブジェクトの他、小マップ作成処理で作成された小マップ120を含む画像を示す画像データが作成される。
 以上、本実施形態の携帯型情報処理装置1によれば、ユーザに対して、例えば図4又は図5に示すような状態でオブジェクト102~114が配置された画像を表示することができる。図4に示すようにユーザが上を向いて遠くを視認している場合、現在位置から遠くの注目範囲にある対象物に関するオブジェクト104,108,112が視認し易くなるように優先して表示される。一方、図5に示すようにユーザが下を向いて近くを視認している場合、現在位置から近くの注目範囲にある対象物に関するオブジェクト102,106,110,114が視認し易くなるように優先して表示される。従って、ユーザは、優先して表示されるオブジェクトを好適に視認することが可能で、目的のオブジェクトを好適に探し出すことができる。なお、図7に示すように、オブジェクト102~114が、視認性に関し同一の状態で表示された場合、オブジェクト102~114のそれぞれは、重なった状態となり、ユーザが目的のオブジェクトを探し出すことが困難となる。
 また、携帯型情報処理装置1によれば、ユーザは、図4又は図5に示すようにオブジェクト102~114と共に表示される現在位置情報122を含む小マップ120によって、現在位置を認識することができる。ユーザは、注目範囲情報126が配置された範囲情報124を含む小マップ120によって、優先して視認することができるオブジェクトに関する対象物の位置と、現在位置との相対的な位置関係を認識することができる。
 本実施形態は、次のようにすることもできる。上記では、携帯型情報処理装置1は、HMD10とシステムボックス50とによって構成された。この他、HMD10とシステムボックス50とは、一体で構成してもよい。具体的に、画像表示部14を構成する図2に示すような筐体の内部に、システムボックス50が備える各部が内蔵された構成とすることもできる。この場合、携帯型情報処理装置は、一体的に構成されたHMDとなる。また、HMD10を含まない構成の携帯型情報処理装置としてもよい。つまり、携帯型情報処理装置は、携帯可能な大きさで、所定の表示部を備え、演算処理を実行可能な情報処理装置であればよい。携帯型情報処理装置は、HMDの他、携帯電話機、PDA(Personal Digital Assistant)であってもよい。また、携帯電話機及びPDAが融合した、いわゆるスマートフォンであってもよい。
 上記では、注目範囲に存在するオブジェクトの視認性と、注目範囲の外に存在するオブジェクトの視認性とを異ならせる構成として、透明度を例に説明した。この他、例えば、オブジェクトのサイズを異ならせるようにしてもよい。この場合、上記において、透明度を向上させたオブジェクトの画像サイズが、透明度を向上させていないオブジェクトの画像サイズと比較し小さくなる。重なり合うオブジェクトの順序を変更させるようにしてもよい。この場合、現在位置からの距離に基づいた順序ではなく、透明度を向上させたオブジェクトに対して透明度を向上させていないオブジェクトが手前に配置される。
 さらに、図6に示す小マップ作成処理のS308での注目範囲の決定は、図9に、その概念を示す角度距離情報に従い、決定するようにしてもよい。角度距離情報は、角度範囲と距離範囲との関係を定めたものである。図9に示すように角度距離情報において角度範囲と距離範囲とは、指数関数的に変化する関係を有する。角度距離情報について、具体的な角度範囲と距離範囲との関係を図9を参照して例示すると、角度範囲A「-10°~0°」に対して距離範囲A「1m~10m」が関係付けられ、角度範囲B「0°~10°」に対して距離範囲B「10m~100m」が関係付けられている。また、角度範囲C「10°~20°」に対して距離範囲C「100m~1000m」が関係付けられている。なお、角度範囲について、マイナスは俯角を示し、プラスは仰角を示す。距離範囲は、現在位置を基準とした位置を示す。例えば距離範囲が「100m~1000m」は、現在位置から100m~1000m離れた範囲である。この例では、角度範囲がプラスの方向に大きくなるにつれ、関係付けられる距離範囲の幅が大きくなるように設定されている。つまり、ユーザが遠くを視認しているような場合において、決定される注目範囲は、近くを見ている場合より広い範囲となるようにされている。このような設定は、上述した第一の距離範囲と第二の距離範囲についても同様とすることができる(第一の距離範囲の幅>第二の距離範囲の幅)。
 角度距離情報は、テーブルの形式で構成される。角度距離情報は、制御部52がアクセス可能な場所に記憶されている。例えば、制御部52を構成するROMに記憶されている。この他、データベース装置90に記憶されていてもよい。データベース装置90に記憶されている場合、制御部52は、無線通信部60を制御し、データベース装置90にアクセスする。制御部52は、図6のS308において角度距離情報にアクセスする。角度距離情報にアクセスした制御部52は、図3のS102で取得された傾斜角情報によって示される傾き(ユーザの頭部の上下方向の傾きについて、水平面とのなす角)が、角度距離情報に定められた何れの角度範囲に含まれるかを特定する。次に、制御部52は、特定された角度範囲に関係付けられた距離範囲を特定する。制御部52は、現在位置を基準として、特定された距離範囲を注目範囲として決定する。具体的な処理について、上記で例示した角度距離情報に基づき説明する。図3のS102で取得された傾斜角情報による傾きは、15°であるとする。制御部52は、15°に従い、これを含む角度範囲C「10°~20°」を特定する。次に、制御部52は、特定された角度範囲C「10°~20°」に関係付けられた距離範囲C「100m~1000m」を特定し、注目範囲として「100m~1000m」を決定する。注目範囲を決定した後の処理については、上述した通りであり、その説明は省略する。
 この他、携帯型情報処理装置1が、ナビゲーション機能を備えるようにしてもよい。図4を例として具体的に説明する。ユーザは、操作部64を操作し、ナビゲーション機能の開始のための指令を入力する。また、ユーザは、図4に示す画像を視認している状態で、表示されているオブジェクト102~114のうちの一つを選択する。例えば、ユーザは、オブジェクト112を選択する。制御部52は、GPS通信部54によって取得される位置情報等を用いて、選択されたオブジェクト112に関する対象物を目的地としたナビゲーションを実行する。ユーザは、画像表示部14に表示される案内に従って進行する。
 1 携帯型情報処理装置
 10 HMD(ヘッドマウントディスプレイ)
 14 画像表示部
 18 画像信号受信部
 20 傾斜角取得部
 22 傾斜角情報送信部
 50 システムボックス
 52 制御部
 54 GPS通信部
 56 傾斜角情報受信部
 60 無線通信部
 62 画像信号送信部
 80 信号ケーブル
 90 データベース装置
 102,104,106,108,110,112,114 オブジェクト

Claims (9)

  1.  ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示する携帯型情報処理装置であって、
     前記オブジェクトを表示する表示部と、
     前記携帯型情報処理装置の位置を示す位置情報を取得する位置取得部と、
     前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、
     前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得手段と、
     前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定手段と、
     前記距離決定手段で決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理手段と、
     前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御手段と、を備える携帯型情報処理装置。
  2.  前記オブジェクト処理手段は、
     前記傾斜角取得部で取得された前記傾斜角情報が仰角を示す場合、前記距離決定手段で決定された前記対象物までの距離が、前記位置取得部で取得された前記位置情報によって示される前記位置を基準とした所定の第一の距離範囲に含まれる前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記第一の距離範囲に含まれない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせ、
     前記傾斜角取得部で取得された前記傾斜角情報が俯角を示す場合、前記距離決定手段で決定された前記対象物までの距離が、前記位置取得部で取得された前記位置情報によって示される前記位置を基準とした所定の範囲であって、前記第一の距離範囲より前記位置情報によって示される前記位置に接近している第二の距離範囲に含まれる前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記第二の距離範囲に含まれない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせる、請求項1に記載の携帯型情報処理装置。
  3.  角度についての角度範囲と距離についての距離範囲との関係が定められた角度距離情報に従い、前記傾斜角取得部で取得された前記傾斜角情報によって示される前記ユーザの頭部の上下方向の傾きの角度を含む前記角度範囲に関係付けられた前記距離範囲を、前記角度距離情報によって特定する角度距離特定手段を備え、
     前記オブジェクト処理手段は、前記距離決定手段で決定された前記対象物毎の各距離のうち、前記角度距離特定手段によって特定された前記距離範囲にある前記第一の対象物に関する前記第一のオブジェクトの前記表示部における視認性と、前記角度距離特定手段によって特定された前記距離範囲にない前記第二の対象物に関する前記第二のオブジェクトの前記表示部における視認性と、を異ならせる、請求項1に記載の携帯型情報処理装置。
  4.  前記オブジェクト処理手段は、前記第二のオブジェクトの前記表示部における透明度が、前記第一のオブジェクトの前記表示部における透明度と比較して高い状態とする、請求項1から請求項3の何れか1項に記載の携帯型情報処理装置。
  5.  前記オブジェクト処理手段は、前記第一のオブジェクト及び前記第二のオブジェクトが、前記外界における前記第一の対象物及び前記第二の対象物それぞれの位置に対応して配置されたとき、前記第一のオブジェクト及び前記第二のオブジェクトが前記表示部に重なって表示されることとなる場合、前記第一のオブジェクト及び前記第二のオブジェクトを、前記表示部の表示領域の上下方向にずらして配置する、請求項1から請求項4の何れか1項に記載の携帯型情報処理装置。
  6.  前記ユーザの顔面が向いている方位を示す方位情報を取得する方位取得部と、
     前記方位取得部で取得された前記方位情報に従って、前記対象取得手段で取得された前記オブジェクトから、前記表示部に表示させる前記オブジェクトそれぞれをさらに選択する対象選択手段と、を備え、
     前記距離決定手段は、前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得され且つ前記対象選択手段で選択された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する、請求項1から請求項5の何れか1項に記載の携帯型情報処理装置。
  7.  前記位置取得部で取得された前記位置情報によって示される前記位置を含む全方位における所定の範囲の地図を示す地図情報を取得する地図情報取得手段を備え、
     前記表示制御手段は、さらに、前記地図情報と、前記方位情報に対応し且つ前記ユーザの視認範囲とされる範囲を示す範囲情報と、を前記表示部に表示する、請求項6に記載の携帯型情報処理装置。
  8.  ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示し、前記オブジェクトを表示する表示部と、自装置の位置を示す位置情報を取得する位置取得部と、前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、を備える携帯型情報処理装置を制御するコンピュータが読み取り可能なコンピュータプログラムであって、
     前記コンピュータを、
     前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得手段と、
     前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得手段で取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定手段と、
     前記距離決定手段で決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理手段と、
     前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御手段と、して機能させるためのコンピュータプログラム。
  9.  ユーザが視認している外界に存在する対象物に関するオブジェクトそれぞれを、前記外界における前記対象物それぞれの位置に対応して配置した状態で表示し、前記オブジェクトを表示する表示部と、自装置の位置を示す位置情報を取得する位置取得部と、前記ユーザの頭部の上下方向の傾きを示す傾斜角情報を取得する傾斜角取得部と、を備える携帯型情報処理装置における表示制御方法であって、
     前記位置取得部で取得された前記位置情報に従って、前記表示部に表示させる前記オブジェクトそれぞれを取得する対象取得ステップと、
     前記位置取得部で取得された前記位置情報によって示される前記位置から、前記対象取得ステップで取得された前記オブジェクトに関する対象物までの距離を、前記対象物毎に決定する距離決定ステップと、
     前記距離決定ステップで決定された前記対象物毎の各距離のうち、前記傾斜角取得部で取得された前記傾斜角情報に対応した所定の距離にある第一の対象物に関する第一のオブジェクトの前記表示部における視認性と、前記第一の対象物とは異なる距離にある第二の対象物に関する第二のオブジェクトの前記表示部における視認性と、を異ならせるオブジェクト処理ステップと、
     前記第一のオブジェクト及び前記第二のオブジェクトを前記表示部に表示させる表示制御ステップと、
    を有することを特徴とする表示制御方法。
PCT/JP2011/069278 2010-08-31 2011-08-26 携帯型情報処理装置、携帯型情報処理装置のためのコンピュータプログラム、及び表示制御方法 WO2012029647A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-195199 2010-08-31
JP2010195199A JP5360021B2 (ja) 2010-08-31 2010-08-31 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2012029647A1 true WO2012029647A1 (ja) 2012-03-08

Family

ID=45772737

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/069278 WO2012029647A1 (ja) 2010-08-31 2011-08-26 携帯型情報処理装置、携帯型情報処理装置のためのコンピュータプログラム、及び表示制御方法

Country Status (2)

Country Link
JP (1) JP5360021B2 (ja)
WO (1) WO2012029647A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6066037B2 (ja) * 2012-03-27 2017-01-25 セイコーエプソン株式会社 頭部装着型表示装置
CN102819400A (zh) * 2012-08-14 2012-12-12 北京小米科技有限责任公司 一种移动终端的桌面系统及界面交互方法、装置
CN104246864B (zh) 2013-02-22 2016-06-29 索尼公司 头戴式显示器和图像显示装置
JP6341759B2 (ja) * 2014-05-30 2018-06-13 キヤノン株式会社 頭部装着型情報表示装置及び頭部装着型情報表示装置の制御方法
JP2016004340A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6047124B2 (ja) * 2014-07-11 2016-12-21 ヤフー株式会社 情報表示装置、配信装置、情報表示方法および情報表示プログラム
JP6791167B2 (ja) * 2015-12-14 2020-11-25 ソニー株式会社 情報処理装置、携帯型装置の制御方法、およびプログラム
JP6816492B2 (ja) * 2016-12-14 2021-01-20 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP6276434B1 (ja) 2017-02-03 2018-02-07 株式会社コロプラ 仮想空間における移動を支援するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176661A (ja) * 2000-12-08 2002-06-21 Kawasaki Heavy Ind Ltd 画像表示装置
JP2005134242A (ja) * 2003-10-30 2005-05-26 Cad Center:Kk ナビゲーションシステム、ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219664A (ja) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd 情報表示システム及び情報表示方法
JP2007134785A (ja) * 2005-11-08 2007-05-31 Konica Minolta Photo Imaging Inc 頭部装着型の映像表示装置
JP4896761B2 (ja) * 2007-02-16 2012-03-14 株式会社日立製作所 立体地図表示システム、立体地図の表示方法、及びそのプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176661A (ja) * 2000-12-08 2002-06-21 Kawasaki Heavy Ind Ltd 画像表示装置
JP2005134242A (ja) * 2003-10-30 2005-05-26 Cad Center:Kk ナビゲーションシステム、ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム

Also Published As

Publication number Publication date
JP2012053643A (ja) 2012-03-15
JP5360021B2 (ja) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5360021B2 (ja) 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム
JP7268692B2 (ja) 情報処理装置、制御方法及びプログラム
US11310483B2 (en) Display apparatus and method for controlling display apparatus
KR101748669B1 (ko) 와치형 단말기 및 그 제어방법
US8498816B2 (en) Systems including mobile devices and head-mountable displays that selectively display content, such mobile devices, and computer-readable storage media for controlling such mobile devices
JP5675470B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
US10878629B2 (en) Display apparatus, information processing system, and control method
JP5622510B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
WO2015145544A1 (ja) 表示制御装置、制御方法、プログラム及び記憶媒体
KR20150129546A (ko) 안경형 단말기와 그 안경형 단말기의 제어 방법
KR20170123907A (ko) 이동단말기 및 그 제어방법
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
KR101824555B1 (ko) 차량에 장착되어 전방 표시 장치 기능을 수행할 수 있는 이동 단말기, 상기 이동 단말기 구동 방법, 및 상기 이동 단말기와 연동되는 경로 안내 장치
EP3006898B1 (en) Mobile terminal and control method thereof
KR20160100188A (ko) 이동 단말기 및 이의 제어방법
WO2019187488A1 (ja) 情報処理装置、情報処理方法、および、プログラム
KR20160086684A (ko) 이동 단말기 및 그것의 제어방법
JP4710217B2 (ja) 情報提示装置及び情報提示方法、情報提示システム、並びにコンピュータ・プログラム
JP2018200699A (ja) 表示制御装置、制御方法、プログラム及び記憶媒体
WO2018213129A1 (en) Enhancing information in a three-dimensional map
KR101576461B1 (ko) 와치 타입 단말기 및 그것의 제어 방법
JP2016110296A (ja) ウェアラブルデバイス、情報処理方法及びプログラム
KR20170023491A (ko) 카메라 및 이를 포함하는 가상 현실 시스템
EP4361770A1 (en) Information processing system, information processing device, and image display device
WO2023276046A1 (ja) 電子機器、プログラムおよび表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11821664

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11821664

Country of ref document: EP

Kind code of ref document: A1