WO2015107625A1 - 情報表示端末、情報表示システム及び情報表示方法 - Google Patents

情報表示端末、情報表示システム及び情報表示方法 Download PDF

Info

Publication number
WO2015107625A1
WO2015107625A1 PCT/JP2014/050513 JP2014050513W WO2015107625A1 WO 2015107625 A1 WO2015107625 A1 WO 2015107625A1 JP 2014050513 W JP2014050513 W JP 2014050513W WO 2015107625 A1 WO2015107625 A1 WO 2015107625A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
information display
display
display terminal
Prior art date
Application number
PCT/JP2014/050513
Other languages
English (en)
French (fr)
Inventor
吉田 進
大内 敏
多田 行伸
禎司 桑原
瀬尾 欣穂
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to PCT/JP2014/050513 priority Critical patent/WO2015107625A1/ja
Priority to US15/106,894 priority patent/US10386637B2/en
Priority to CN201480072277.3A priority patent/CN105874528B/zh
Priority to JP2015557613A priority patent/JP6312712B2/ja
Priority to CN201810766525.4A priority patent/CN108986766B/zh
Publication of WO2015107625A1 publication Critical patent/WO2015107625A1/ja
Priority to US16/508,486 priority patent/US10656424B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Definitions

  • the present invention relates to an information display terminal, an information display system, and an information display method.
  • Patent Document 1 describes a method of switching an information display mode between a summary mode and a detailed mode according to a user's situation. Also, for example, in Patent Document 2, information given by the user via the input means for the real-world situation specified by the current position or object (object) information is combined with the information imaged by the imaging means. And how to display it.
  • Wearable information display terminals such as eyeglasses are different from mobile terminals such as smartphones when a user does not actively go to the display contents of the mobile terminal when acquiring predetermined information.
  • the user can passively confirm the information display within the field of view when in an operating state.
  • the wearable information display terminal since the display of information is started and ended regardless of the user's intention, the information may be displayed even when it is not particularly necessary. There is.
  • Patent Document 1 switches the information display mode depending on the situation such as whether the user is walking, whether the display image is being watched, or whether the user is speaking. No particular consideration was given to how to determine when it is time for the user to display information about any object and how to start or end displaying information about that object. .
  • Patent Document 2 information related to an object given by a user is combined with information captured by an imaging unit and displayed. Thus, it was not particularly considered whether to start or end at an effective timing.
  • the present invention has been made in view of these problems.
  • a wearable information display terminal or the like the display of information on an object is started or ended in a timely manner, and the information is displayed in a format that can be easily recognized by the user.
  • An object is to provide an information display terminal and an information display method.
  • display of information about an object can be started or ended in a timely manner, and information can be displayed in a format that can be easily recognized by the user. For example, user convenience in a wearable information display terminal is improved. There is an effect that can be.
  • the block diagram which shows an example of a structure of an information display terminal.
  • the sketch which shows an example when a user wears an information display terminal.
  • the 1st figure which shows an example of the related information display in 1st Embodiment.
  • the 2nd figure which shows an example of the related information display in 1st Embodiment.
  • the block diagram which shows the system configuration
  • the 1st figure which shows an example of the related information display in 2nd Embodiment.
  • the 2nd figure which shows an example of the related information display in 2nd Embodiment.
  • the operation movement flowchart in 3rd Embodiment.
  • the 1st figure which shows an example of the related information display in 3rd Embodiment.
  • the 2nd figure which shows an example of the related information display in 3rd Embodiment.
  • the 1st figure which shows an example of the related information display in 4th Embodiment.
  • the 2nd figure which shows an example of the related information display in 4th Embodiment.
  • FIG. 1 is a block diagram showing an example of the configuration of the information display terminal 101. The first embodiment will be described using this.
  • Reference numeral 101 denotes an information display terminal
  • 102 denotes a control unit that controls the entire information display terminal 101
  • 103 denotes an imaging unit
  • 104 denotes an image processing unit
  • 105 denotes a display control unit
  • 106 denotes an audio input / output unit corresponding to a microphone or an earphone
  • 107 Is a voice processing unit
  • 108 is a communication processing unit
  • 109 is a communication input / output unit
  • 110 is a position detection unit such as GPS (Global Positioning System)
  • 111 is a sensor input / output unit
  • 112 is various sensors.
  • the communication input / output unit 109 is connected to the network by wireless communication.
  • the information display terminal 101 is directly connected to the Internet or the like to acquire information will be described.
  • the information terminal communicates with another information terminal (smart phone or the like) by short-range wireless communication such as Bluetooth (registered trademark), and the information terminal performs connection and main processing with the Internet or the like. Also good.
  • the information display terminal 101 is a head mounted display including at least an imaging unit 103 and a display control unit 105.
  • Various sensors 112 include a sensor that detects the posture and movement of the user such as a tilt sensor and an acceleration sensor, a sensor that detects the user's physical state such as a gaze sensor and a temperature sensor, and a user instruction input such as a pressure sensor and a capacitance sensor. It is possible to mount a plurality of sensors including those used as input / output I / Fs for detecting the above.
  • FIG. 2 is a sketch diagram showing an example when the user wears the information display terminal 101. Constituent elements common to those in FIG.
  • Reference numeral 201 denotes a user
  • 202 denotes a first image area captured by the imaging unit 103
  • 203 denotes a second image area displayed by the display control unit 105.
  • the area of the second image is not limited to the size or range indicated by 203, and may cover a wide field of view.
  • the information display terminal 101 is mounted on the head, and can display the information in the visual field direction of the user 201 and the display control unit 105 that displays information by projecting light according to information in the visual field of the user 201.
  • Any device may be used as long as the imaging unit 103 is arranged.
  • it may be a spectacle type, a goggle type, one that covers one eye, one that covers both eyes, etc., and is not limited to the shape shown as an example in FIG.
  • the first image of the area 202 imaged by the imaging unit 103 is analyzed by the image processing unit 104, and a predetermined object included therein is detected.
  • Information indicating the detected feature of the object for example, information indicating a feature related to a pattern to be described later, is transmitted to the network via the communication processing unit 108, and the information regarding the object acquired from the network in response to this is as follows: It is supplied to the image processing unit 104.
  • the image processing unit 104 generates the second image based on the information and supplies the second image to the display control unit 105.
  • the display control unit 105 displays the second image in the area 203.
  • the display control unit 105 displays an image on, for example, a half mirror provided at a position corresponding to the region 203, or projects and displays the second image directly on the retina of the user 201, but at least transmits as a head-mounted display. If the second image is not displayed, the region 203 does not hide the field of view of the user 201.
  • FIG. 3 is an operation flow diagram according to the first embodiment.
  • FIGS. 4A and 4B are diagrams illustrating an example of related information display according to the first embodiment, and illustrate a user's field of view.
  • the operation of the information display terminal 101 in this embodiment will be described in detail with reference to FIGS. 3, 4A, and 4B.
  • the information display terminal 101 displays related information regarding a predetermined object as a second image, particularly when the user is looking for a product in a store or the like.
  • processing is started in step 301.
  • the whole process may be started by touch input of the pressure sensor or the like in the sensor 112 or user's voice input from the voice input / output unit 106. Alternatively, it may be automatically performed by recognizing that the user is in a specific store based on the position information detected by the position detection unit 110 or the image captured by the image capturing unit 103.
  • a predetermined object is detected.
  • the image processing unit 104 performs image recognition on images continuously captured by the image capturing unit 103, and the plurality of cut out objects have a predetermined pattern shape, color, or deformation predicted value thereof.
  • a predetermined object is detected by matching or the like.
  • the predetermined pattern may be a default pattern (for example, a genre such as “clothes”) corresponding to the store information, or may be acquired from the Internet or the like in association with the store information.
  • a predetermined pattern is obtained from a server on the Internet or other public information, and more specific predetermined object detection is performed. It is also possible to do this.
  • the predetermined object detected in step 302 is not limited to a single object, and a plurality of objects may be detected simultaneously in the imaging region.
  • the communication processing unit 108 acquires information about the predetermined object from the Internet or the like via the communication input / output unit 109.
  • the product name, model number, and the like can be determined from the image of the predetermined object imaged by the imaging unit 103 using a product tag or the like, it is also possible to acquire related information based on them.
  • the display trigger is determined in step 304.
  • the display trigger is a specific object for starting display of the second image based on related information, and in this case, “hand” is used as the display trigger. Even if a predetermined object is detected in step 302 and related information of the predetermined object is acquired in step 303, as long as the display trigger is captured by the imaging unit 103 and is not recognized by the image processing unit 104, the second image Does not display. Note that the method of recognizing “hand” by the image display unit 104 is the same as the method of recognizing the object in step 302.
  • the second image is not displayed because the display trigger does not exist in the imaging area 401. (No in step 304).
  • the specific object 407 that is a display trigger is recognized in the imaging region 401 and is determined to be close to the predetermined object (Yes in step 304)
  • the specific object 407 specified in step 305 is specified.
  • the second image based on the related information of the predetermined object 402 is generated by the image processing unit 104. Further, the second image is displayed by the display control unit 105 in a form that can be recognized as information related to the predetermined object 402.
  • the content displayed as the second image 406 is product information related to the predetermined object 402 in this case.
  • word-of-mouth information, price quote information, and the like related to the product are displayed in a format that is easily recognized by the user.
  • the displayed content is not particularly limited as long as it is useful information for the user.
  • the broken line of the imaging region 401 is shown for convenience only and is not displayed within the user's field of view.
  • step 306 the determination of the display trigger is continuously performed, and the related information is displayed while the display trigger is recognized.
  • the display is switched to the second image related to the changed predetermined object (Yes in step 306). If the specific object 407 that is a display trigger cannot be recognized in the imaging region 401, the display of the second image is terminated in step 307, and the process returns to the detection of the predetermined object in step 302 (in step 306). No).
  • FIG. 5 is a block diagram showing a system configuration on the network. The acquisition of the related information via the communication processing unit 108 will be briefly described with reference to FIG.
  • the information display terminal 101 acquires related information of the predetermined object 402 from the Internet 501 with the above-described configuration.
  • the information is transmitted by an unspecified third party via the Internet 501 using, for example, the personal computer 502, the portable terminal 503, the information display terminal 504, and stored in the storage 506 by the server 505, for example.
  • the information display terminal 101 transmits information for identifying the predetermined object 402 detected from the image captured by the imaging unit 103, and the server 505 stores information related to the predetermined object 402 from the information accumulated in the storage 506. Provided to the display terminal 101.
  • the server 505 collects information about a predetermined store, a predetermined area, etc. in advance and provides information for the information display terminal. Conversely, when the specific server 505 does not collect related information, the information display terminal 101 searches for and acquires information related to the predetermined object 402 from information published by a plurality of servers connected to the Internet. You can also
  • the display of the second image is started using, for example, the display trigger that brings the hand close to the object. Or end.
  • This makes it possible to display the second image at a timing and a period reflecting the user's intention or action (for example, picking up a product seeing information related to the product).
  • the user can freely use both hands while wearing the information display terminal, and there is no need to operate the information display terminal 101 itself when selecting an object, which improves convenience.
  • the second image is not displayed at an unnecessary timing or information on a plurality of objects is not displayed at the same time, it is possible to avoid annoying display for the user.
  • FIGS. 6 to 8B The configuration of the information display terminal 101 is basically the same as in the case of FIG. 1 described above, and will be described using the numbers given to the components in FIG. Similarly to the first embodiment, a case will be described in which the information display terminal 101 displays related information as a second image for a predetermined object, particularly when the user is looking for a product in a store or the like.
  • FIG. 6 is an operation flowchart in the second embodiment.
  • FIG. 7 is a diagram showing a display example when registering a display trigger.
  • FIG. 6 shows an operation flow at the time of display trigger registration
  • FIG. 7 shows a user's field of view at the time of display trigger registration.
  • processing is started.
  • the process can be started by a user instruction by touch input such as a pressure sensor or voice input.
  • a frame for registering a display trigger is displayed.
  • the image processing unit 104 generates an image representing a registration frame
  • the display control unit 105 displays the registration frame 702 within the imaging area 701 of the imaging unit 103, that is, in the user's visual field direction as shown in FIG. To do.
  • step 603 the user positions a specific object to be registered as a display trigger so as to fit in the registration frame 702.
  • the “palm” is the specific object 703.
  • step 604 when the image processing unit 104 recognizes that the specific object 703 exists within the registration frame 702 from the image captured by the imaging unit 103, the user determines whether to register the object as a display trigger. Contact The inquiry to the user may be made by displaying characters as shown in FIG. 7 or by voice output from the voice input / output unit 106.
  • the specific object 703 is stored in a memory (not shown) in the information display terminal 101 as a display trigger.
  • the memory may be provided so as to be accessible from the control unit 102 or the image processing unit 104, or may be built in.
  • the process ends.
  • the image processing unit 104 recognizes the presence of the specific object 703, an image representing the outline of the specific object 703 is generated and displayed by the display control unit 105, and audio is output from the audio input / output unit 106. It is also possible to notify the user that the specific object 703 has been recognized.
  • FIGS. 8A and 8B are diagrams illustrating an example of related information display in the second embodiment.
  • the information display terminal 101 displays related information as a second image for a predetermined object when the user is looking for a product in a store or the like. Will be described with reference to FIGS. 8A and 8B.
  • “palm” is registered as the specific object 703 in step 605.
  • the operation flow is basically the same as in the case of FIG.
  • the predetermined object 802 exists in the imaging region 801 and related information is acquired from the Internet or the like, but the specific object 803 is “back of hand”. Since it is not recognized as a registered display trigger, related information is not displayed.
  • the coincidence determination with the registered display trigger is determined by, for example, matching the object shape, color, or their predicted deformation value with the image processing unit 104.
  • the specific object 804 is “palm” and is determined as a registered display trigger in step 605 of FIG.
  • step 305 related information of the predetermined object 802 specified by the display trigger is generated as the second image 805 by the image processing unit 104. Further, the second image 805 is displayed by the display control unit 105 in a form that can be recognized as information related to the predetermined object 802.
  • the content displayed as the second image 805 is not particularly limited as long as it is information useful to the user as product information regarding the predetermined object 802.
  • the broken lines in the imaging areas 701 and 801 are shown for convenience only and are not displayed in the user's field of view.
  • the wearable information display terminal by registering a specific object as a display trigger, display of the second image according to the user's intention or Termination can be done.
  • the user can freely use both hands while wearing the information display terminal, and there is no need to operate the information display terminal 101 itself when selecting an object. Since the display trigger can be appropriately changed according to demand, convenience is improved.
  • step 301 in FIG. 3 an embodiment in which the processing start in step 301 in FIG. 3 is performed by a registered display trigger is conceivable. That is, as the operation of the information display terminal 101, first, only the display trigger is determined continuously in step 301. In this embodiment, when it is determined from the image captured by the image capturing unit 103 that the object recognized by the image recognition unit 104 matches the registered display trigger, the operation from step 302 is performed. In the example of the present embodiment, a series of operations can be performed by indicating “palm” in the imaging region 401. Since the start of the operation is simplified, the convenience of the user can be further improved.
  • the information display terminal 101 displays related information as a second image for a predetermined object, particularly when the user is looking for a product in a store or the like. The case will be described.
  • FIG. 9 is an operation flowchart in the third embodiment.
  • FIG. 10A and FIG. 10B are diagrams showing an example of related information display in the third embodiment, showing the user's field of view.
  • step 901 to step 903 is the same as the operation from step 301 to step 303 in FIG. 3 described above, and detailed description thereof will be omitted.
  • a predetermined object is detected in step 902
  • related information relating to the predetermined object is acquired from the Internet or the like in step 903.
  • the predetermined object detected in step 902 is not limited to a single object, and a plurality of objects may be detected simultaneously in the imaging region.
  • the user's line of sight is determined.
  • the gaze point of the user wearing the information display terminal 101 is detected by the gaze sensor included in the sensor 112.
  • the line-of-sight sensor for example, a method using infrared rays described in Patent Document 1 described above, a method using a complementary metal-oxide semiconductor (CMOS) sensor, and the like are known.
  • CMOS complementary metal-oxide semiconductor
  • the gazing point is not within the range of the detected predetermined object (No in step 904), the second image related to the related information is not displayed. For example, as shown in FIG. 10A, if 1002 to 1005 are detected as predetermined objects in the imaging region 1001, but the gazing point 1006 does not cover any of the predetermined objects, the second information related to the related information is displayed. The image is not displayed.
  • Step 905 the predetermined object 1002
  • the related information is generated as the second image 1007 by the image processing unit 104 and is displayed by the display control unit 105 in a form that can be recognized as information related to the predetermined object 1002.
  • the content displayed as the second image 1007 is product information related to the predetermined object 1002 as in the above-described embodiment, and word-of-mouth information and price quote information related to the product are displayed in a format that is easy for the user to recognize. ing.
  • the displayed content is not particularly limited as long as it is useful information for the user.
  • the broken line and the mark of the gazing point 1006 in the imaging area 1001 are shown for convenience only and are not displayed in the user's field of view.
  • the mark of the gazing point 1006 may be provided with a mode for displaying as an image so that the user can recognize it.
  • the shape of the mark is not limited to the shape of the gazing point 1006.
  • step 906 the line-of-sight determination is continuously performed, and the second image 1007 is displayed while the gazing point 1006 is within the range of the predetermined object 1002 or the second image 1007 (Yes in step 906). This is because the gazing point 1006 moves to the second image 1007 side when the second image 1007 is displayed.
  • the display of the second image 1007 is terminated (step (No in 906), the process returns to the detection of the predetermined object in step 902 again.
  • the information display terminal 101 displays related information as a second image for a predetermined object, particularly when the user is looking for a product in a store or the like. The case will be described.
  • FIG. 11 is an operation flowchart in the fourth embodiment.
  • FIG. 12A and FIG. 12B are diagrams showing an example of related information display in the fourth embodiment, and show the field of view of the user.
  • step 1101 to step 1103 is the same as the operation from step 301 to step 303 in FIG. 3 described above, and detailed description thereof is omitted.
  • processing is started in step 1101, a predetermined object is detected in step 1102, and related information related to the predetermined object is acquired from the Internet or the like in step 1103.
  • a case will be described in which a plurality of predetermined objects are simultaneously detected in the imaging region in step 1102.
  • candidate marks are displayed in step 1104.
  • the candidate mark is a mark that is displayed when the detected predetermined object is valid as related information.
  • FIG. 12A shows a case where 1202 to 1205 are detected as predetermined objects in the imaging region 1201 in step 1102 and valid related information about 1202, 1204, 1205 can be acquired in step 1103.
  • Reference numerals 1206 to 1208 are candidate marks, which are generated as images by the image processing unit 104 and displayed by the display control unit 105 so as to be superimposed on a part of the corresponding predetermined object.
  • the candidate mark is not limited to the shape shown in FIG. 12A as long as it can be recognized by a user and can determine which predetermined object is associated with the candidate mark.
  • step 1105 the display trigger is determined.
  • “hand” is used as a display trigger as in the above-described embodiment.
  • FIG. 12A since there is no display trigger in the imaging region 1201, only the candidate marks 1206, 1207, and 1208 are displayed, and the second image related information related to each predetermined object is not displayed.
  • step 1106 when the specific object 1209 as the display trigger is recognized in the imaging region 1201 and is determined to be close to the predetermined object 1202, in step 1106, the predetermined object 1202 specified by the display trigger is determined.
  • the related information is generated as the second image 1210 by the image processing unit 104 and is displayed by the display control unit 105 as a substitute for the candidate mark 1206.
  • the predetermined object 1202 is close to other objects 1203 to 1205.
  • the second image 1210 is displayed so as to overlap with a part of the predetermined object 1202.
  • the second image may be displayed so as to partially overlap the related object.
  • the content displayed as the second image 1210 is product information related to the predetermined object 1202 as in the above-described embodiment, and word-of-mouth information and price quote information related to the product are displayed in a format that is easy for the user to recognize. ing.
  • the displayed content is not particularly limited as long as it is useful information for the user.
  • the candidate marks 1207 and 1208 are continuously displayed as candidate marks because the corresponding object is not selected. Note that the broken line in the imaging region 1201 is shown for convenience only and is not displayed in the user's field of view.
  • step 1107 the determination of the display trigger is continuously performed, and the related information is displayed while the display trigger is recognized (Yes in step 1107).
  • the candidate mark for the changed predetermined object is switched to the display of the second image related to the related information.
  • the predetermined object before the change is switched again from the second image related to the related information to the candidate mark display.
  • the specific object 1209 that is the display trigger cannot be recognized in the imaging region 1201 (No in Step 1107)
  • the second image display related to the related information is terminated in Step 1108, and the predetermined object of Step 1102 is displayed. Return to detection. However, the display of candidate marks already displayed in the imaging area 1201 is continued.
  • the wearable information display terminal 101 displays candidate marks prior to displaying related information of a predetermined object, so that the user can select which object can display related information in advance. It becomes possible to recognize.
  • the related information itself since the display start or end of the second image is performed using the display trigger, it is possible to display the second image at a timing and period reflecting the user's intention or action.
  • the user can freely use both hands while wearing the information display terminal 101, and can display the second image while recognizing which object can display related information. Furthermore, there is no need to operate the information display terminal 101 itself when selecting an object, and there is an effect that convenience is improved.
  • an embodiment is conceivable in which the size or color of the candidate marks 1206 to 1208 in FIG. 12A is differentiated depending on the validity of the content of the relevant information. Since each related information has already been acquired at the time of displaying the candidate mark, for example, when the amount of additional information is large or the product is specified by the user in advance, the display mark is enlarged or a red frame is displayed. To do. Thereby, it can be made easier for the user to recognize in advance.
  • the operation for displaying the candidate mark has been described as being combined with the first embodiment. However, the operation may be combined with other embodiments.
  • the information display terminal displays related information as a second image for a predetermined object, particularly when the user is looking for a product in a store, particularly in a clothing store Have explained.
  • the application scene is not limited to this, and can be applied to other categories of stores and outdoor information display.
  • “hand” is mainly used as the display trigger has been described, other display triggers can be designated.
  • the present invention is not limited to the above-described embodiment, and includes various modifications.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
  • each of the functions and processing units described above may be realized in part or in whole by hardware, or may be realized by software by the processor interpreting and executing a program that realizes each function. Good.
  • the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines are necessarily shown.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ウェアラブルな情報表示端末において、オブジェクトに関する情報をユーザが必要なタイミングで認識し易い形式で表示する。 視野方向を撮像し、撮像して得た第1の画像から第1のオブジェクトを検出し、第1のオブジェクトに係る関連情報をネットワークから取得して、関連情報に係る第2の画像を生成する。第1の画像から第1のオブジェクトとは異なる第2のオブジェクトを検出し、前記第2のオブジェクトを表示トリガーとし、第1のオブジェクトと第2のオブジェクトが近接している場合に、第2の画像を表示する。

Description

情報表示端末、情報表示システム及び情報表示方法
 本発明は、情報表示端末、情報表示システム及び情報表示方法に関する。
 ゴーグル型や眼鏡型のヘッドマウントディスプレイを用いて所定の情報を表示する、いわゆるウェアラブルな情報表示端末に関する情報表示方法について、各種方法が提案されている。
 例えば特許文献1では、ユーザの状況に応じて、情報の表示モードを要約モードと詳細モードで切り替える方法が記載されている。また例えば特許文献2では、現在位置または対象物(オブジェクト)情報により特定された実世界の状況に対して、入力手段を介してユーザにより付与される情報を、撮像手段により撮像された情報と合成して表示する方法が記載されている。
特開2007-163634号公報 特開2011-28763号公報
 眼鏡型等のウェアラブルな情報表示端末がスマートフォン等の携帯端末に対して異なるのは、所定の情報を取得する際に、携帯端末ではユーザが能動的に携帯端末による表示内容を見に行かなければならないのに対し、ウェアラブルな情報表示端末では、動作状態であればユーザは視野内で受動的に情報表示を確認できる点である。しかしながら前記ウェアラブルな情報表示端末では、情報の表示はユーザの意思とは無関係に開始と終了がなされるため、特に必要としていない場合でも情報の表示が行われるなど、状況によってはユーザが煩わしく感じる場合がある。
 上記特許文献1に記載の従来技術は、ユーザが歩行中か否か、表示映像を注視中か否か、あるいは発話中か否か等の状況に応じて情報の表示モードを切り替えるものであるが、ユーザが任意のオブジェクトに関する情報を表示して欲しいタイミングかどうかをどのように判断して、当該オブジェクトに関する情報の表示をどのように開始あるいは終了するかということについては、特に考慮されていなかった。
 また上記特許文献2に記載の従来技術は、ユーザにより付与されるオブジェクトに関する情報を、撮像手段により撮像された情報と合成して表示するものであるが、同様に当該オブジェクトに関する情報の表示をどのように有効なタイミングで開始あるいは終了するかということについては、特に考慮されていなかった。
 本発明はこれらの課題に鑑みてなされたものであって、ウェアラブルな情報表示端末等において、オブジェクトに関する情報の表示を適時に開始あるいは終了するとともに、ユーザが認識しやすい形式で前記情報を表示する情報表示端末及び情報表示方法を提供することを目的とする。
 上記課題は、例えば特許請求の範囲に記載の発明により達成される。
 本発明によれば、オブジェクトに関する情報の表示を適時に開始あるいは終了することができ、またユーザが認識しやすい形式で情報を表示でき、例えばウェアラブルな情報表示端末におけるユーザの利便性を向上させることができるという効果がある。
情報表示端末の構成の一例を示すブロック図。 情報表示端末をユーザが装着した場合の一例を示す見取図。 第1の実施形態における動作フロー図。 第1の実施形態における関連情報表示の一例を示す第1の図。 第1の実施形態における関連情報表示の一例を示す第2の図。 ネットワーク上のシステム構成を示すブロック図。 第2の実施形態における動作フロー図。 表示トリガー登録時の表示例を示す図。 第2の実施形態における関連情報表示の一例を示す第1の図。 第2の実施形態における関連情報表示の一例を示す第2の図。 第3の実施形態における動作フロー図。 第3の実施形態における関連情報表示の一例を示す第1の図。 第3の実施形態における関連情報表示の一例を示す第2の図。 第4の実施形態における動作フロー図。 第4の実施形態における関連情報表示の一例を示す第1の図。 第4の実施形態における関連情報表示の一例を示す第2の図。
 以下、図面を用いて本発明の実施形態について説明する。
 図1は、情報表示端末101の構成の一例を示すブロック図である。これを用いて第1の実施形態を説明する。
 101は情報表示端末、102は情報表示端末101全体を制御する制御部、103は撮像部、104は画像処理部、105は表示制御部、106はマイクやイヤホンに相当する音声入出力部、107は音声処理部、108は通信処理部、109は通信入出力部、110はGPS(Gloval Positioning System)をはじめとする位置検出部、111はセンサ入出力部、112は各種のセンサである。
 通信入出力部109はネットワークと無線通信により接続される。本実施形態では情報表示端末101が直接インターネット等に接続されて情報を取得する場合について説明する。但し、Bluetooth(登録商標)等の近距離無線通信により、別な装置である情報端末(スマートフォン等)と通信を行い、インターネット等との接続と主な処理を前記情報端末が行うような構成としてもよい。
 情報表示端末101は少なくとも撮像部103及び表示制御部105を備えたヘッドマウントディスプレイである。各種センサ112としては、傾斜センサや加速度センサなどユーザの体勢や動きを検出するもの、視線センサや温度センサなどユーザの身体状態を検出するもの、感圧センサや静電容量センサなどユーザの指示入力を検知する入出力I/Fとして用いられるものをはじめとする、複数のセンサを搭載可能である。
 図2は、情報表示端末101をユーザが装着した場合の一例を示す見取図である。図1と共通する構成要素には同一の符号を付してある。
 201はユーザ、202は撮像部103で撮影される第1の画像の領域を模式的に示し、203は表示制御部105により表示される第2の画像の領域を模式的に示したものである。なお前記第2の画像の領域は203で示したサイズあるいは範囲に限定されるものではなく、視野を広くカバーするものであってもよい。また情報表示端末101の形態は、頭部に装着され、ユーザ201の視野内に例えば情報に応じた光を投射して情報を表示する表示制御部105と、ユーザ201の視野方向を撮像可能な撮像部103が配置されるものであれば良い。例えば眼鏡型、ゴーグル型、片目にかかるもの、両目にかかるもの等であって良く、図2に一例として示すような形に限定されるものではない。
 撮像部103で撮像された領域202の第1の画像は、画像処理部104で解析され、そこに含まれる所定のオブジェクトが検出される。検出された該オブジェクトの特徴を表す情報、例えば後記するパターンに係る特徴を表す情報を、通信処理部108を介してネットワークに送信し、これに応じてネットワークより取得された前記オブジェクトに関する情報は、画像処理部104に供給される。画像処理部104は該情報に基づいて前記第2の画像を生成し、表示制御部105に供給する。表示制御部105は前記第2の画像を領域203に表示する。
 表示制御部105は、例えば領域203に相当する位置に設けたハーフミラーに画像を表示し、或いはユーザ201の網膜上に直接第2の画像を投影して表示するが、少なくともヘッドマウントディスプレイとして透過型であり、第2の画像を表示しない場合には、領域203がユーザ201の視野を隠蔽しないものとする。
 図3は、第1の実施形態における動作フロー図である
 図4Aと図4Bは、第1の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。
 図3、図4A、図4Bを用いて、本実施形態における情報表示端末101の動作について詳細に説明する。本実施形態では、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトに関する関連情報を第2の画像として表示する場合について説明する。
 まずステップ301で処理を開始する。全体の処理開始は、センサ112における感圧センサ等のタッチ入力や、音声入出力部106からのユーザの音声入力によってもよい。また、位置検出部110で検出された位置情報、あるいは撮像部103により撮像された画像を基にユーザが特定の店舗内に居ることを認識して、自動的に行うようにしてもよい。
 次にステップ302で所定オブジェクトの検出を行う。具体的には撮像部103で継続的に撮像された画像に対して、画像処理部104が画像認識を行い、切り出された複数のオブジェクトが所定パターンの形状、色、あるいはその変形予測値とのマッチングを取られる等して、所定オブジェクトが検出される。前記所定パターンは、店舗情報に応じたデフォルトのパターン(例えば「洋服」等のジャンル)であってもよいし、当該パターンを店舗情報に関連付けてインターネット等から取得するようにしてもよい。
 またユーザが所望の商品が決まっている場合は、予め商品名、型番、ジャンル等を指定して、インターネット上のサーバやその他の公開情報から所定パターンを取得し、より具体的な所定オブジェクト検出を行うことも可能である。なおステップ302において検出される所定オブジェクトは単一とは限らず、撮像領域内で同時に複数検出される場合もある。
 所定オブジェクトが検出されると、ステップ303において当該所定オブジェクトについての関連情報が取得される。具体的には通信処理部108により、前記所定オブジェクトに関する情報がインターネット等から通信入出力部109を介して取得される。撮像部103により撮像された所定オブジェクトの画像から、商品タグ等により商品名、型番等が確定できる場合には、それらに基づき関連情報を取得することも可能である。
 続いてステップ304で表示トリガーの判定が行われる。表示トリガーとは、関連情報に基づく前記第2の画像の表示を開始するための特定のオブジェクトであり、この場合は「手」を表示トリガーとしている。ステップ302で所定オブジェクトが検出され、ステップ303で当該所定オブジェクトの関連情報が取得されていても、前記表示トリガーが撮像部103で撮像され画像処理部104で認識されない限り、前記第2の画像の表示は行わない。なお、画像表示部104が「手」を認識する方法は、ステップ302におけるオブジェクトの認識と同様な方法である。
 例えば図4Aで示すように、撮像領域401の中で402から405がそれぞれ所定オブジェクトとして検出されていても、表示トリガーが撮像領域401内に存在しないため、前記第2の画像の表示は行わない(ステップ304のNo)。
 一方図4Bで示すように、表示トリガーである特定オブジェクト407が撮像領域401内に認識され、所定オブジェクトに近接していると判断されると(ステップ304のYes)、ステップ305において、特定された所定オブジェクト402の関連情報に基づいた前記第2の画像が、画像処理部104にて生成される。さらに前記第2の画像は、所定オブジェクト402に関連する情報として認識できる形で、表示制御部105により表示される。
 第2の画像406として表示される内容は、この場合所定オブジェクト402に関する商品情報である。ここでは当該商品に関する口コミ情報や価格相場情報などが、ユーザに認識されやすい形式で表示されている。なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域401の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。
 ステップ306において、前記表示トリガーの判定が継続的に行われ、表示トリガーが認識されている間は前記関連情報の表示を行う。なお表示トリガーの位置が変更され、所定オブジェクトが変更になった場合は、変更後の所定オブジェクトに関する第2の画像に切り替えるようにする(ステップ306のYes)。また表示トリガーである特定オブジェクト407が撮像領域401の中で認識できなくなった場合は、ステップ307において前記第2の画像の表示を終了し、再びステップ302の所定オブジェクトの検出に戻る(ステップ306のNo)。
 図5は、ネットワーク上のシステム構成を示すブロック図である。通信処理部108を介した前記関連情報の取得について、図5を用いて簡単に説明する。
 情報表示端末101は、前述の構成によりインターネット501から所定オブジェクト402の関連情報を取得する。当該情報は不特定な第三者により、例えばパーソナルコンピュータ502、携帯端末503、情報表示端末504などを用いてインターネット501を介して送信され、例えばサーバ505によりストレージ506に蓄積される。情報表示端末101は、撮像部103が撮像した画像から検出した所定オブジェクト402を識別する情報を送信し、サーバ505はストレージ506に蓄積された情報の中から、所定オブジェクト402に関連する情報を情報表示端末101に対して提供する。
 なおサーバ505は予め所定の店舗、所定の地域等について情報を集約し、情報表示端末向けに情報提供を行う。逆に特定のサーバ505が関連情報を集約していない場合は、インターネットに接続された複数のサーバが公開している情報から、情報表示端末101が所定オブジェクト402に関連する情報を検索して取得することもできる。
 以上のように本発明の第1の実施形態によれば、ウェアラブルな情報表示端末において、所定オブジェクトの関連情報について、例えば手をオブジェクトに近づけるという表示トリガーを用いて前記第2の画像の表示開始あるいは終了を行う。これにより、ユーザの意思あるいは行動(例えば商品を手に取る=商品に関連する情報を見たい)を反映したタイミング及び期間に前記第2の画像の表示を行うことが可能となる。ユーザは情報表示端末を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上する。また不要なタイミングで前記第2の画像が表示され、あるいは複数のオブジェクトに対する情報が同時に表示されるようなことがなくなるため、ユーザにとって煩わしい表示となることを回避できるという効果がある。
 次に、情報表示端末101の第2の実施形態を、図6から図8Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また第1の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示する場合について説明する。
 図6は、第2の実施形態における動作フロー図である。
 図7は、表示トリガー登録時の表示例を示す図である。
 本実施形態において特徴的となるのは、ユーザが前述の表示トリガーを登録できるようにしている点である。図6は表示トリガー登録時の動作フローを示しており、図7は表示トリガー登録時のユーザの視野を示している。
 まずステップ601で処理を開始する。処理開始としては、感圧センサ等のタッチ入力や音声入力によるユーザ指示により行うことができる。次にステップ602において、表示トリガーを登録するための枠を表示する。具体的には画像処理部104が登録枠を表す画像を生成し、表示制御部105が図7のように撮像部103の撮像領域701の範囲内、即ちユーザの視野方向に登録枠702を表示する。
 ステップ603において、ユーザは表示トリガーとして登録したい特定オブジェクトを、登録枠702に収まるように位置させる。この場合は「手のひら」を特定オブジェクト703としている。続いてステップ604において、撮像部103で撮像された画像から、画像処理部104が登録枠702の範囲内に特定オブジェクト703が存在すると認識すると、当該オブジェクトを表示トリガーとして登録するか否かをユーザに問合せる。ユーザへの問合せは、図7に示すように文字の表示で行ってもよいし、音声入出力部106からの音声出力により行ってもよい。
 ユーザの指示入力により登録指示がなされると(ステップ604のYes)、特定オブジェクト703が表示トリガーとして情報表示端末101内のメモリ(図示せず)に記憶される。なお、該メモリは制御部102又は画像処理部104からアクセスできるように設けられるか、これらが内蔵しても良い。その後ステップ606において処理を終了する。なおステップ604で画像処理部104が特定オブジェクト703の存在を認識した段階で、特定オブジェクト703の輪郭を表す画像を生成し表示制御部105が表示するとともに、音声入出力部106から音声を出力し、ユーザに特定オブジェクト703が認識されたことを通知することも可能である。
 図8Aと図8Bは、第2の実施形態における関連情報表示の一例を示す図である。ここで第1の実施形態の場合と同様に、ユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について、図8Aと図8Bを用いて説明する。ここでは、ステップ605で特定オブジェクト703として、「手のひら」が登録されたものとする。
 動作フローは基本的に図3の場合と同様であるので、詳細な説明は省略する。前述のステップ304の表示トリガーの判定において、図8Aに示すように撮像領域801内に所定オブジェクト802が存在し、関連情報がインターネット等から取得されているが、特定オブジェクト803は「手の甲」であり、登録された表示トリガーとして認識されないため、関連情報の表示は行われない。登録された表示トリガーとの一致判定は、画像処理部104においてオブジェクトの形状、色、あるいはそれらの変形予測値等とのマッチングが取られる等して判断される。図8Bでは特定オブジェクト804は「手のひら」であり、図6のステップ605で登録済の表示トリガーとして判断される。
 さらに、ステップ305において、表示トリガーにより特定された所定オブジェクト802の関連情報が、画像処理部104にて第2の画像805として生成される。さらに前記第2の画像805は、所定オブジェクト802に関連する情報として認識できる形で、表示制御部105により表示される。
 前述と同様に、第2の画像805として表示される内容は、所定オブジェクト802に関する商品情報としてユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域701及び801の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。
 以上のように本発明の第2の実施形態によれば、ウェアラブルな情報表示端末において、特定のオブジェクトを表示トリガーとして登録することにより、ユーザの意図に応じた前記第2の画像の表示開始あるいは終了を行うことができる。実施形態1の場合と同様に、ユーザは情報表示端末を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなく、またユーザの要望に応じて適宜表示トリガーを変えることが可能となるため、利便性が向上する。
 本実施形態の変形例として、図3のステップ301における処理開始を、登録された表示トリガーにより行う実施形態が考えられる。つまり情報表示端末101の動作として、まずステップ301で継続して表示トリガーの判定のみを行う。そして、撮像部103で撮像された画像から、画像認識部104において認識されたオブジェクトが、登録された表示トリガーと一致すると判定された場合に、ステップ302以降の動作を行う実施形態である。本実施形態の例では、撮像領域401に「手のひら」を示すことで一連の動作を行わせることができる。動作の開始が簡単になるため、更にユーザの利便性を向上することができるという効果がある。
 次に情報表示端末101の第3の実施形態を、図9、図10Aと図10Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また本実施形態でも前述の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明する。
 図9は、第3の実施形態における動作フロー図である。
 図10Aと図10Bは、第3の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。
 ステップ901からステップ903の動作については、前述の図3におけるステップ301からステップ303の動作と同様であり、詳細な説明は省略する。ステップ901で処理を開始すると、ステップ902で所定オブジェクトを検出し、ステップ903で前記所定オブジェクトに関する関連情報がインターネット等から取得される。なおステップ902において検出される所定オブジェクトは単一とは限らず、撮像領域内で同時に複数検出される場合もある。
 続いてステップ904でユーザの視線判定が行われる。情報表示端末101を装着したユーザの視線は、センサ112に含まれる視線センサにより、その注視点が検出される。視線センサについては、例えば前述の特許文献1に記載の赤外線を利用した方法、CMOS(Complementary Metal-Oxide Semiconductor)センサを利用した方法等が知られている。注視点が前記検出した所定オブジェクトにかかる範囲にない場合(ステップ904のNo)、前記関連情報に係る第2の画像の表示は行わない。例えば図10Aで示すように、撮像領域1001の中で1002から1005がそれぞれ所定オブジェクトとして検出されていても、注視点1006がいずれかの所定オブジェクトにもかからない場合は、関連情報に係る第2の画像の表示は行わない。
 一方、図10Bのように、注視点1006が所定オブジェクト1002にかかった場合、その状態が所定時間(例えば3秒)以上継続した場合は(ステップ904のYes)、ステップ905において、当該所定オブジェクト1002の関連情報が、画像処理部104にて第2の画像1007として生成され、所定オブジェクト1002に関連する情報として認識できる形で、表示制御部105により表示される。第2の画像1007として表示される内容は、前述の実施例と同様に、所定オブジェクト1002に関する商品情報であり、当該商品に関する口コミ情報や価格相場情報などを、ユーザが認識しやすい形式で表示している。
 なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域1001の破線及び注視点1006のマークは、便宜上示しているのみであり、ユーザの視野内に表示されるものではない。ただし注視点1006のマークについては、画像として表示するモードを設けてユーザが認識できるようにすることも可能であり、その場合マークの形状は注視点1006の形状に限定されない。
 ステップ906において、視線判定を継続的に行い、注視点1006が所定オブジェクト1002あるいは第2の画像1007にかかる範囲にある間は、第2の画像1007を表示する(ステップ906のYes)。これは第2の画像1007が表示された時点で、注視点1006は第2の画像1007側に移動するためである。また注視点1006が所定オブジェクト1002あるいは第2の画像1007にかかる範囲から外れた場合、または外れて所定時間(例えば3秒)以上継続した場合は、第2の画像1007の表示を終了し(ステップ906のNo)、再びステップ902の所定オブジェクトの検出に戻る。
 以上のように第3の実施形態によれば、ウェアラブルな情報表示端末101において、所定オブジェクトの関連情報について、ユーザの注視点に応じて第2の画像の表示開始あるいは終了を行うことにより、ユーザの意思あるいは行動(例えば商品に注目している=商品に関連する情報を見たい)を反映したタイミング及び期間に画像の表示を行うことが可能となる。前述の実施形態の場合と同様に、ユーザは情報表示端末101を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上する。また不要なタイミングで第2の画像が表示される、あるいは複数のオブジェクトに対する情報が同時に表示されるようなことがなくなるため、ユーザにとって煩わしい表示となることを回避できるという効果がある。
 次に情報表示端末101の第4の実施形態を、図11、図12Aと図12Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また本実施形態でも前述の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明する。
 図11は、第4の実施形態における動作フロー図である。
 図12Aと図12Bは、第4の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。
 ステップ1101からステップ1103の動作については、前述の図3におけるステップ301からステップ303の動作と同様であり、詳細な説明は省略する。ステップ1101で処理を開始すると、ステップ1102で所定オブジェクトを検出し、ステップ1103で前記所定オブジェクトに関する関連情報がインターネット等から取得される。なお本実施形態では、ステップ1102において撮像領域内で同時に複数の所定オブジェクトが検出される場合について説明する。
 複数の所定オブジェクトが検出され関連情報が取得されると、ステップ1104において候補マークの表示が行われる。候補マークとは、検出された所定オブジェクトで関連情報として有効なものを取得できた場合に表示されるマークのことである。例えば図12Aは、ステップ1102において撮像領域1201内で1202から1205が所定オブジェクトとして検出され、ステップ1103において1202、1204、1205について有効な関連情報が取得できた場合を示している。1206から1208が候補マークであり、画像処理部104により画像として生成され、表示制御部105により該当する所定オブジェクトの一部に重畳するように表示される。なお候補マークは、ユーザが認識できる程度の大きさで、どの所定オブジェクトに関連するものかを判別できるものであれば、その形状は図12Aに示すものに限定されない。
 続いてステップ1105で表示トリガーの判定が行われる。この場合前述の実施例と同様に「手」を表示トリガーとしている。図12Aでは、撮像領域1201の中で表示トリガーが存在しないため、候補マーク1206、1207、1208のみが表示されており、各所定オブジェクトの関連情報に係る第2の画像の表示は行われない。
 一方図12Bのように、表示トリガーである特定オブジェクト1209が撮像領域1201内に認識され、所定オブジェクト1202に近接していると判断されると、ステップ1106において、表示トリガーにより特定された所定オブジェクト1202の関連情報が、画像処理部104にて第2の画像1210として生成され、候補マーク1206に代わるものとして、表示制御部105により表示される。
 この場合、所定オブジェクト1202は他のオブジェクト1203乃至1205に近接している。このため、第2の画像1210は所定オブジェクト1202の一部と重畳するように表示される。これにより、第2の画像1210が、どのオブジェクトに係る表示であるかを明確にしている。なお、他の実施形態においても、第2の画像がどのオブジェクトに係る画像であるかを明確にするためには、前記第2の画像を関連するオブジェクトと一部が重畳するように表示すると良い。
 第2の画像1210として表示される内容は、前述の実施形態と同様に、所定オブジェクト1202に関する商品情報であり、当該商品に関する口コミ情報や価格相場情報などを、ユーザが認識しやすい形式で表示している。なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また候補マーク1207及び1208は、該当オブジェクトが選択されていない状態なので、継続的に候補マークのまま表示される。なお撮像領域1201の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。
 ステップ1107において、前記表示トリガーの判定が継続的に行われ、表示トリガーが認識されている間は前記関連情報の表示を行う(ステップ1107のYes)。なお表示トリガーの位置が変更され、表示トリガーに近接する所定オブジェクトが変更になった場合は、変更後の所定オブジェクトについての候補マークを関連情報に係る第2の画像の表示に切り替えるようにする。また変更前の所定オブジェクトについては、関連情報に係る第2の画像から候補マーク表示に再び切り替えるようにする。表示トリガーである特定オブジェクト1209が撮像領域1201の中で認識できなくなった場合は(ステップ1107のNo)、ステップ1108において前記関連情報に係る第2の画像表示を終了し、ステップ1102の所定オブジェクトの検出に戻る。ただし撮像領域1201内で表示済の候補マークについては、表示を継続する。
 以上のように第4の実施形態によれば、ウェアラブルな情報表示端末101において、所定オブジェクトの関連情報表示に先立って候補マークを表示することにより、ユーザは予め関連情報を表示可能なオブジェクトがどれなのかを認識することが可能となる。関連情報自体については、表示トリガーを用いて第2の画像の表示開始あるいは終了を行うので、ユーザの意思あるいは行動を反映したタイミング及び期間に第2の画像の表示を行うことが可能である。ユーザは情報表示端末101を装着した状態で両手を自由に使うことが可能であり、どのオブジェクトについて関連情報が表示可能かを認識しながら第2の画像の表示を行うことができる。さらに、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上するという効果がある。
 本実施形態の変形例として、図12Aにおける候補マーク1206から1208の大きさあるいは色を、該当する関連情報の内容の有効性により差を付ける実施形態が考えられる。候補マークを表示する時点で各関連情報は取得済なので、例えば付加情報の量が多い場合、または事前にユーザが指定した商品である場合等に、表示マークを大きくする、あるいは赤色系の枠にする。これにより、さらにユーザが事前に認識しやすいものとすることが可能である。
 なお本実施形態では、候補マークを表示する動作について、第1の実施形態に組み合わせるような場合について説明したが、その他の実施形態に組み合わせて実施することも可能である。
 以上説明した全ての実施形態において、特にユーザが店舗内、特に衣料品店で商品を物色している場合に、情報表示端末が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明してきた。しかし、適用場面はこれに限定されるものではなく、その他のカテゴリの店舗や、屋外での情報表示などに適用することも可能である。また表示トリガーとして主に「手」を用いる場合について説明したが、その他のものを指定して表示トリガーとすることができる。
 また本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。さらに上記の各機能、処理部等は、それらの一部又は全部をハードウェアで実現しても良いし、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することによりソフトウェアで実現してもよい。なお制御線や情報線は説明上必要と考えられるものを示しており、必ずしも全ての制御線や情報線を示しているとは限らない。
 101、504… 情報表示端末、102… 制御部、103… 撮像部、104… 画像処理部、105… 表示制御部、106… 音声入出力部、107… 音声処理部、108… 通信処理部、109… 通信入出力部、110… 位置検出部、111… センサ入出力部、112… 各種センサ、201… ユーザ、202、401、701、801、1001、1201… 撮像領域、203… 画像領域、402、802、1002、1202… 所定オブジェクト、406、805、1007、1210… 関連情報の画像、407、804、1209… 表示トリガー、501… インターネット、502… パーソナルコンピュータ、503… 携帯端末、505… サーバ、506… ストレージ、702… 登録枠、1006… 注視点、1206、1207、1208… 候補マーク。

Claims (20)

  1.  使用者の視野方向に情報を表示する情報表示端末であって、
     ネットワークから情報を取得するための通信を行う通信処理部と、
     前記視野方向を撮像する撮像部と、
     前記撮像部が撮像した第1の画像から第1のオブジェクトを検出し、前記通信処理部を介して前記ネットワークから取得した前記第1のオブジェクトの関連情報を第2の画像として生成する画像処理部と、
     前記第2の画像を前記視野方向に表示する表示制御部と、
     前記情報表示端末の構成要素の動作を制御する制御部と
     を有し、
     前記制御部は、
     前記画像処理部が前記第1の画像から任意のオブジェクトを特定するための第2のオブジェクトを検出し、さらに、前記第1のオブジェクトと前記第2のオブジェクトが近接した位置にあると判断した場合に、前記第2の画像を表示するよう前記表示制御部を制御する
     ことを特徴とする情報表示端末。
  2.  請求項1に記載の情報表示端末において、
     前記制御部は、
     前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳してなされるよう前記表示制御部を制御する
      ことを特徴とする情報表示端末。
  3.   請求項1に記載の情報表示端末において、
      前記制御部は、
    前記近接した状態が解除されたと判断した場合には、前記第2の画像の表示を停止するよう前記表示制御部を制御する
     ことを特徴とする情報表示端末。
  4.  請求項1に記載の情報表示端末において、
     前記制御部は、
     前記撮像部が撮像した前記第1の画像から前記第2のオブジェクトを確定する情報を取得するよう前記画像処理部を制御する
     ことを特徴とする情報表示端末。
  5.  請求項4に記載の情報表示端末において、
     前記制御部は、
     所定の領域を表す画像を前記画像処理部に生成させて前記表示制御部に表示させ、表示された前記領域内に位置するオブジェクトから前記第2のオブジェクトを確定する情報を取得するよう前記画像処理部を制御する
     ことを特徴とする情報表示端末。
  6.  使用者の視野方向に情報を表示する情報表示端末であって、
     ネットワークから情報を取得するための通信を行う通信処理部と、
     前記視野方向を撮像する撮像部と、
     前記撮像部が撮像した第1の画像から第1のオブジェクトを検出し、前記通信処理部を介して前記ネットワークから取得した前記第1のオブジェクトの関連情報を第2の画像として生成する画像処理部と、
     前記第2の画像を前記視野方向に表示する表示制御部と、
     前記使用者の注視点を検出する視線センサと、
     前記情報表示端末の構成要素の動作を制御する制御部と
     を有し、
     前記制御部は、
     前記視線センサが検出した使用者の注視点が前記第1のオブジェクトにかかる位置に所定時間以上存在した場合には、前記第2の画像を表示するよう前記表示制御部を制御する
     ことを特徴とする情報表示端末。
  7.  請求項6に記載の情報表示端末において、
     前記制御部は、
     前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳してなされるよう前記表示制御部を制御する
      ことを特徴とする情報表示端末。
  8.  請求項6に記載の情報表示端末において、
     前記制御部は、
     前記注視点が前記第1のオブジェクトにかかる位置あるいは前記第2の画像にかかる位置から外れた後に所定時間経過した場合には、前記第2の画像の表示を停止するよう前記表示制御部を制御する
     ことを特徴とする情報表示端末。
  9.  請求項1に記載の情報表示端末において、
     前記制御部は、
     前記画像処理部に前記第1のオブジェクトに係る特定のマーク画像を生成させ、前記表示制御部が前記第2の画像を表示しない場合には、前記マーク画像を前記第1のオブジェクトに一部重畳するように表示するよう前記表示制御部を制御する
     ことを特徴とする情報表示端末。
  10.  請求項9に記載の情報表示端末において、
     前記制御部は、
     前記画像処理部が前記ネットワークから前記第1のオブジェクトに係る有効な関連情報を取得した場合に、前記マーク画像を表示するよう前記表示制御部を制御する
     ことを特徴とする情報表示端末。
  11.  請求項9に記載の情報表示端末において、
     前記制御部は、
     前記第2の画像の表示を行う場合には、前記マーク画像の表示を前記第2の画像の表示に切り替えるよう前記表示制御部を制御する
     ことを特徴とする情報表示端末。
  12.  請求項9に記載の情報表示端末において、
     前記制御部は、
     前記関連情報の有効性に応じて前記マーク画像の表示状態を変更するよう前記表示制御部を制御する
     ことを特徴とする情報表示端末。
  13.  請求項1に記載の情報表示端末において、
     前記情報表示端末の位置を検出する位置情報検出部を備え、
     前記制御部は、
     前記位置情報検出部が検出した位置と前記撮像部により撮像された画像に基づいて、前記通信処理部により前記ネットワークから情報を取得して、前記使用者の詳細な位置情報を判断するよう制御する
     ことを特徴とする情報表示端末。
  14.  請求項1に記載の情報表示端末と、ネットワークに接続され情報を通信する情報端末とを有する情報表示システムであって、
     前記情報表示端末の通信処理部は、前記情報端末を介して前記ネットワークと情報を通信する
     ことを特徴とする情報表示システム。
  15.  使用者の視野方向に情報を表示する情報表示方法であって、
     前記視野方向を撮像し、
     撮像して得た第1の画像から第1のオブジェクトを検出し、
     該第1のオブジェクトに係る関連情報をネットワークから取得し、
     前記関連情報に係る第2の画像を生成し、
     前記第1の画像から任意のオブジェクトを特定するための第2のオブジェクトを検出し、
     前記第1のオブジェクトと前記第2のオブジェクトが近接した位置にあると判断した場合に、前記第2の画像を前記視野方向に表示する
     ことを特徴とする情報表示方法。
  16.   請求項15に記載の情報表示方法において、
      前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳して行う
      ことを特徴とする情報表示方法。
  17.  請求項15に記載の情報表示方法であって、
     前記第1の画像から前記第2のオブジェクトを確定する情報を取得する
     ことを特徴とする情報表示方法。
  18.  使用者の視野方向に情報を表示する情報表示方法であって、
     前記視野方向を撮像し、
     撮像して得た第1の画像から第1のオブジェクトを検出し、
     該第1のオブジェクトに係る関連情報をネットワークから取得し、
     前記関連情報に係る第2の画像を生成し、
     前記使用者の注視点を検出し、
     前記注視点が前記第1のオブジェクトにかかる位置に所定時間以上存在した場合には、前記第2の画像を前記視野方向に表示する
     ことを特徴とする情報表示方法。
  19. 請求項18に記載の情報表示方法において、
      前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳して行う
      ことを特徴とする情報表示方法。
  20.  請求項15に記載の情報表示方法において、
     前記第1のオブジェクトに係る特定のマーク画像を生成し、
     前記第2の画像を表示しない場合には、前記マーク画像を前記第1のオブジェクトの一部に重畳するように表示する
     ことを特徴とする情報表示方法。
PCT/JP2014/050513 2014-01-15 2014-01-15 情報表示端末、情報表示システム及び情報表示方法 WO2015107625A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/JP2014/050513 WO2015107625A1 (ja) 2014-01-15 2014-01-15 情報表示端末、情報表示システム及び情報表示方法
US15/106,894 US10386637B2 (en) 2014-01-15 2014-01-15 Information display terminal, information display system, and information display method
CN201480072277.3A CN105874528B (zh) 2014-01-15 2014-01-15 信息显示终端、信息显示系统以及信息显示方法
JP2015557613A JP6312712B2 (ja) 2014-01-15 2014-01-15 情報表示端末、情報表示システム及び情報表示方法
CN201810766525.4A CN108986766B (zh) 2014-01-15 2014-01-15 信息显示终端以及信息显示方法
US16/508,486 US10656424B2 (en) 2014-01-15 2019-07-11 Information display terminal, information display system, and information display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/050513 WO2015107625A1 (ja) 2014-01-15 2014-01-15 情報表示端末、情報表示システム及び情報表示方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/106,894 A-371-Of-International US10386637B2 (en) 2014-01-15 2014-01-15 Information display terminal, information display system, and information display method
US16/508,486 Continuation US10656424B2 (en) 2014-01-15 2019-07-11 Information display terminal, information display system, and information display method

Publications (1)

Publication Number Publication Date
WO2015107625A1 true WO2015107625A1 (ja) 2015-07-23

Family

ID=53542549

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/050513 WO2015107625A1 (ja) 2014-01-15 2014-01-15 情報表示端末、情報表示システム及び情報表示方法

Country Status (4)

Country Link
US (2) US10386637B2 (ja)
JP (1) JP6312712B2 (ja)
CN (2) CN105874528B (ja)
WO (1) WO2015107625A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081339A (ja) * 2014-10-17 2016-05-16 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2018063722A (ja) * 2017-12-05 2018-04-19 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
CN108369482A (zh) * 2015-12-14 2018-08-03 索尼公司 信息处理设备、信息处理方法和程序
JP2019061455A (ja) * 2017-09-26 2019-04-18 株式会社Nttドコモ 情報処理装置、端末装置および情報処理システム
JP2019135600A (ja) * 2018-02-05 2019-08-15 Kddi株式会社 表示制御装置、表示制御方法及びプログラム
WO2020053913A1 (ja) * 2018-09-10 2020-03-19 株式会社ウフル ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末
JP2020098535A (ja) * 2018-12-19 2020-06-25 株式会社メルカリ ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法
WO2020183826A1 (ja) * 2019-03-08 2020-09-17 株式会社Nttドコモ 関連情報出力装置
WO2021095235A1 (ja) * 2019-11-15 2021-05-20 マクセル株式会社 表示装置、および表示方法
WO2022065383A1 (ja) * 2020-09-24 2022-03-31 株式会社Jvcケンウッド 表示システム、表示方法及びプログラム
JP2022059595A (ja) * 2020-10-01 2022-04-13 株式会社東芝 電子機器及び表示方法
JP2022166023A (ja) * 2019-12-27 2022-11-01 マクセル株式会社 ヘッドマウントディスプレイ連携表示システム、及び、表示装置とヘッドマウントディスプレイとを含むシステム、及び、その表示装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10386637B2 (en) * 2014-01-15 2019-08-20 Maxell, Ltd. Information display terminal, information display system, and information display method
US11030778B2 (en) * 2014-03-31 2021-06-08 Healthy.Io Ltd. Methods and apparatus for enhancing color vision and quantifying color interpretation
US10445577B2 (en) * 2014-04-08 2019-10-15 Maxell, Ltd. Information display method and information display terminal
CN104699250B (zh) * 2015-03-31 2018-10-19 小米科技有限责任公司 显示控制方法及装置、电子设备
US10317994B2 (en) 2015-06-05 2019-06-11 International Business Machines Corporation Initiating actions responsive to user expressions of a user while reading media content
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
CN107105188A (zh) * 2017-05-23 2017-08-29 北京小米移动软件有限公司 通信处理方法及装置
WO2019003360A1 (ja) * 2017-06-28 2019-01-03 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
CN107358639B (zh) * 2017-07-25 2022-08-30 上海传英信息技术有限公司 一种基于智能终端的照片展示方法及照片展示系统
JP2019111625A (ja) * 2017-12-25 2019-07-11 カシオ計算機株式会社 情報処理装置、ロボット、情報処理方法及びプログラム
CN109472225A (zh) * 2018-10-26 2019-03-15 北京小米移动软件有限公司 会议控制方法及装置
JP7078568B2 (ja) * 2019-03-19 2022-05-31 株式会社日立製作所 表示装置、表示制御方法、及び表示システム
KR20220017474A (ko) * 2019-06-07 2022-02-11 가부시키가이샤 한도오따이 에네루기 켄큐쇼 복합 디바이스

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2010067083A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2012008290A (ja) * 2010-06-23 2012-01-12 Softbank Mobile Corp 眼鏡型表示装置及びサーバ

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6014117A (en) * 1997-07-03 2000-01-11 Monterey Technologies, Inc. Ambient vision display apparatus and method
US6346962B1 (en) * 1998-02-27 2002-02-12 International Business Machines Corporation Control of video conferencing system with pointing device
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
JP4631987B2 (ja) 1998-10-19 2011-02-16 ソニー株式会社 情報処理端末、情報処理システム及び情報処理方法
US20030210228A1 (en) * 2000-02-25 2003-11-13 Ebersole John Franklin Augmented reality situational awareness system and method
JP4875843B2 (ja) 2004-10-20 2012-02-15 オリンパス株式会社 情報端末装置
JP3830956B1 (ja) * 2005-09-14 2006-10-11 健治 吉田 情報出力装置
JP5036177B2 (ja) 2005-12-12 2012-09-26 オリンパス株式会社 情報表示装置
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
JP5092357B2 (ja) * 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP5195537B2 (ja) 2009-03-09 2013-05-08 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5272827B2 (ja) * 2009-03-18 2013-08-28 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5402293B2 (ja) * 2009-06-22 2014-01-29 ソニー株式会社 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法
EP2485118A4 (en) * 2009-09-29 2014-05-14 Alcatel Lucent METHOD FOR DETECTING VISUALIZATION POINTS AND CORRESPONDING APPARATUS
JP2011166589A (ja) 2010-02-12 2011-08-25 Aplix Corp 携帯端末および情報提示方法
MY156130A (en) * 2010-03-30 2016-01-15 Ns Solutions Corp Information processing apparatus, system, vacant space guidance method and program
KR101830679B1 (ko) * 2010-07-29 2018-02-22 삼성디스플레이 주식회사 표시 패널 검사 장치 및 그 방법
US8493353B2 (en) * 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
US20130083007A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Changing experience using personal a/v system
JP5807686B2 (ja) * 2012-02-10 2015-11-10 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP5884576B2 (ja) * 2012-03-16 2016-03-15 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US9430876B1 (en) * 2012-05-10 2016-08-30 Aurasma Limited Intelligent method of determining trigger items in augmented reality environments
US9389420B2 (en) * 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
RU2015108948A (ru) * 2012-09-21 2016-10-10 Сони Корпорейшн Устройство управления и носитель информации
US20140240225A1 (en) * 2013-02-26 2014-08-28 Pointgrab Ltd. Method for touchless control of a device
JP6224327B2 (ja) * 2013-03-05 2017-11-01 任天堂株式会社 情報処理システム、情報処理装置、情報処理方法、および情報処理用プログラム
JP5962547B2 (ja) * 2013-03-08 2016-08-03 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9245388B2 (en) * 2013-05-13 2016-01-26 Microsoft Technology Licensing, Llc Interactions of virtual objects with surfaces
US20160089980A1 (en) * 2013-05-23 2016-03-31 Pioneer Corproation Display control apparatus
US9235051B2 (en) * 2013-06-18 2016-01-12 Microsoft Technology Licensing, Llc Multi-space connected virtual data objects
CN103488745A (zh) 2013-09-22 2014-01-01 宇龙计算机通信科技(深圳)有限公司 获取信息的方法及终端
US10045091B1 (en) * 2013-09-30 2018-08-07 Cox Communications, Inc. Selectable content within video stream
WO2015072604A1 (ko) * 2013-11-15 2015-05-21 엘지전자(주) 투명 디스플레이 장치와 그의 제어방법
US10386637B2 (en) * 2014-01-15 2019-08-20 Maxell, Ltd. Information display terminal, information display system, and information display method
US10445577B2 (en) * 2014-04-08 2019-10-15 Maxell, Ltd. Information display method and information display terminal
US20170046879A1 (en) * 2014-04-30 2017-02-16 Robert Paul Severn Augmented reality without a physical trigger

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2010067083A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2012008290A (ja) * 2010-06-23 2012-01-12 Softbank Mobile Corp 眼鏡型表示装置及びサーバ

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081339A (ja) * 2014-10-17 2016-05-16 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US11042743B2 (en) 2015-12-14 2021-06-22 Sony Corporation Information processing device, information processing method, and program for preventing deterioration of visual recognition in a scene
CN108369482A (zh) * 2015-12-14 2018-08-03 索尼公司 信息处理设备、信息处理方法和程序
CN108369482B (zh) * 2015-12-14 2021-09-28 索尼公司 信息处理设备、信息处理方法和程序
JP2019061455A (ja) * 2017-09-26 2019-04-18 株式会社Nttドコモ 情報処理装置、端末装置および情報処理システム
JP2018063722A (ja) * 2017-12-05 2018-04-19 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2019135600A (ja) * 2018-02-05 2019-08-15 Kddi株式会社 表示制御装置、表示制御方法及びプログラム
WO2020053913A1 (ja) * 2018-09-10 2020-03-19 株式会社ウフル ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末
JP2020098535A (ja) * 2018-12-19 2020-06-25 株式会社メルカリ ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法
US11694242B2 (en) 2018-12-19 2023-07-04 Mercari, Inc. Wearable terminal, information processing terminal, and product information display method
JP7157871B2 (ja) 2019-03-08 2022-10-20 株式会社Nttドコモ 関連情報出力装置
JPWO2020183826A1 (ja) * 2019-03-08 2020-09-17
WO2020183826A1 (ja) * 2019-03-08 2020-09-17 株式会社Nttドコモ 関連情報出力装置
JPWO2021095235A1 (ja) * 2019-11-15 2021-05-20
WO2021095235A1 (ja) * 2019-11-15 2021-05-20 マクセル株式会社 表示装置、および表示方法
JP7364686B2 (ja) 2019-11-15 2023-10-18 マクセル株式会社 表示装置、および表示方法
US11967148B2 (en) 2019-11-15 2024-04-23 Maxell, Ltd. Display device and display method
JP2022166023A (ja) * 2019-12-27 2022-11-01 マクセル株式会社 ヘッドマウントディスプレイ連携表示システム、及び、表示装置とヘッドマウントディスプレイとを含むシステム、及び、その表示装置
JP7372401B2 (ja) 2019-12-27 2023-10-31 マクセル株式会社 ヘッドマウントディスプレイ連携表示システム、及び、表示装置とヘッドマウントディスプレイとを含むシステム、及び、その表示装置
WO2022065383A1 (ja) * 2020-09-24 2022-03-31 株式会社Jvcケンウッド 表示システム、表示方法及びプログラム
JP2022059595A (ja) * 2020-10-01 2022-04-13 株式会社東芝 電子機器及び表示方法
JP7309830B2 (ja) 2020-10-01 2023-07-18 株式会社東芝 電子機器及び表示方法

Also Published As

Publication number Publication date
CN108986766A (zh) 2018-12-11
CN105874528A (zh) 2016-08-17
US20160320622A1 (en) 2016-11-03
US20190331927A1 (en) 2019-10-31
US10386637B2 (en) 2019-08-20
CN105874528B (zh) 2018-07-20
JP6312712B2 (ja) 2018-04-18
JPWO2015107625A1 (ja) 2017-03-23
US10656424B2 (en) 2020-05-19
CN108986766B (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
JP6312712B2 (ja) 情報表示端末、情報表示システム及び情報表示方法
CN107390863B (zh) 设备的控制方法及装置、电子设备、存储介质
JP5870929B2 (ja) 情報処理システム、情報処理装置および情報処理方法
US20150381885A1 (en) Glass-type terminal and method for controlling the same
US8988519B2 (en) Automatic magnification of data on display screen based on eye characteristics of user
US20150379360A1 (en) Eyewear-type terminal and method for controlling the same
KR20150079804A (ko) 이미지 처리 방법, 장치, 단말기기, 프로그램 및 기록매체
CN107533375B (zh) 场景图像分析模块
KR20110109883A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
KR102056221B1 (ko) 시선인식을 이용한 장치 연결 방법 및 장치
CN108681399B (zh) 一种设备控制方法、装置、控制设备及存储介质
CN106164838B (zh) 信息显示方法和信息显示终端
CN115512534B (zh) 远程设备的发现和连接
US10514755B2 (en) Glasses-type terminal and control method therefor
JP6714632B2 (ja) 情報表示端末及び情報表示方法
CN111886564A (zh) 信息处理装置、信息处理方法和程序
KR20200144196A (ko) 전자 장치 및 각막 이미지를 이용한 전자 장치의 기능 제공 방법
JP6516464B2 (ja) ウェアラブル検索システム
JP2015191554A (ja) 電子機器
JP5651639B2 (ja) 情報処理装置、情報表示装置、情報処理方法およびプログラム
CN113655638A (zh) 用于控制智能家电的方法及装置、智能眼镜
JP7078568B2 (ja) 表示装置、表示制御方法、及び表示システム
JP2013182422A (ja) 電子機器
JP2016051276A (ja) 電子機器及び情報表示プログラム
WO2022244052A1 (ja) ヘッドマウントディスプレイ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14878590

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015557613

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15106894

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14878590

Country of ref document: EP

Kind code of ref document: A1