JP6714632B2 - Information display terminal and information display method - Google Patents

Information display terminal and information display method Download PDF

Info

Publication number
JP6714632B2
JP6714632B2 JP2018052754A JP2018052754A JP6714632B2 JP 6714632 B2 JP6714632 B2 JP 6714632B2 JP 2018052754 A JP2018052754 A JP 2018052754A JP 2018052754 A JP2018052754 A JP 2018052754A JP 6714632 B2 JP6714632 B2 JP 6714632B2
Authority
JP
Japan
Prior art keywords
image
information
display
user
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018052754A
Other languages
Japanese (ja)
Other versions
JP2018112753A (en
JP2018112753A5 (en
Inventor
吉田 進
進 吉田
大内 敏
敏 大内
多田 行伸
行伸 多田
禎司 桑原
禎司 桑原
瀬尾 欣穂
欣穂 瀬尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2018052754A priority Critical patent/JP6714632B2/en
Publication of JP2018112753A publication Critical patent/JP2018112753A/en
Publication of JP2018112753A5 publication Critical patent/JP2018112753A5/ja
Application granted granted Critical
Publication of JP6714632B2 publication Critical patent/JP6714632B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報表示端末及び情報表示方法に関する。 The present invention relates to an information display terminal and an information display method.

ゴーグル型や眼鏡型のヘッドマウントディスプレイを用いて所定の情報を表示する、いわゆるウェアラブルな情報表示端末に関する情報表示方法について、各種方法が提案されている。 Various methods have been proposed as information display methods for so-called wearable information display terminals that display predetermined information using a goggle-type or eyeglass-type head-mounted display.

例えば特許文献1では、ユーザの状況に応じて、情報の表示モードを要約モードと詳細モードで切り替える方法が記載されている。また例えば特許文献2では、現在位置または対象物(オブジェクト)情報により特定された実世界の状況に対して、入力手段を介してユーザにより付与される情報を、撮像手段により撮像された情報と合成して表示する方法が記載されている。 For example, Patent Document 1 describes a method of switching the information display mode between a summary mode and a detailed mode according to the user's situation. Further, for example, in Patent Document 2, the information given by the user via the input means with respect to the current position or the situation in the real world specified by the object information is combined with the information picked up by the image pickup means. The method of displaying is described.

特開2007−163634号公報JP, 2007-163634, A 特開2011−28763号公報JP, 2011-28763, A

眼鏡型等のウェアラブルな情報表示端末がスマートフォン等の携帯端末に対して異なるのは、所定の情報を取得する際に、携帯端末ではユーザが能動的に携帯端末による表示内容を見に行かなければならないのに対し、ウェアラブルな情報表示端末では、動作状態であればユーザは視野内で受動的に情報表示を確認できる点である。しかしながら前記ウェアラブルな情報表示端末では、情報の表示はユーザの意思とは無関係に開始と終了がなされるため、特に必要としていない場合でも情報の表示が行われるなど、状況によってはユーザが煩わしく感じる場合がある。 Wearable information display terminals such as eyeglasses are different from mobile terminals such as smartphones in that when a user acquires predetermined information, the user must actively see the contents displayed by the mobile terminal on the mobile terminal. On the other hand, in a wearable information display terminal, the user can passively check the information display in the field of view in the operating state. However, in the wearable information display terminal, since the display of information is started and ended regardless of the user's intention, the information is displayed even when it is not particularly necessary. There is.

上記特許文献1に記載の従来技術は、ユーザが歩行中か否か、表示映像を注視中か否か、あるいは発話中か否か等の状況に応じて情報の表示モードを切り替えるものであるが、ユーザが任意のオブジェクトに関する情報を表示して欲しいタイミングかどうかをどのように判断して、当該オブジェクトに関する情報の表示をどのように開始あるいは終了するかということについては、特に考慮されていなかった。 The conventional technique described in Patent Document 1 switches the display mode of information according to the situation such as whether the user is walking, gazing at the displayed image, or uttering. , No particular consideration was given to how to determine when the user wants to display information about an arbitrary object and how to start or end displaying information about the object. ..

また上記特許文献2に記載の従来技術は、ユーザにより付与されるオブジェクトに関する情報を、撮像手段により撮像された情報と合成して表示するものであるが、同様に当該オブジェクトに関する情報の表示をどのように有効なタイミングで開始あるいは終了するかということについては、特に考慮されていなかった。 Further, the prior art described in the above-mentioned Patent Document 2 displays the information about the object given by the user by combining it with the information captured by the image capturing means. No particular consideration was given to whether to start or end at an effective timing.

本発明はこれらの課題に鑑みてなされたものであって、ウェアラブルな情報表示端末等において、オブジェクトに関する情報の表示を適時に開始あるいは終了するとともに、ユーザが認識しやすい形式で前記情報を表示する情報表示端末及び情報表示方法を提供することを目的とする。 The present invention has been made in view of these problems, and in a wearable information display terminal or the like, display of information regarding an object is started or ended in a timely manner, and the information is displayed in a format that is easily recognized by the user. An object is to provide an information display terminal and an information display method.

上記課題は、例えば特許請求の範囲に記載の発明により達成される。 The above object can be achieved by, for example, the invention described in the claims.

本発明によれば、オブジェクトに関する情報の表示を適時に開始あるいは終了することができ、またユーザが認識しやすい形式で情報を表示でき、例えばウェアラブルな情報表示端末におけるユーザの利便性を向上させることができるという効果がある。 ADVANTAGE OF THE INVENTION According to this invention, the display of the information regarding an object can be started or ended in a timely manner, and information can be displayed in a format which a user can easily recognize, for example, improving a user's convenience in a wearable information display terminal. There is an effect that can be.

情報表示端末の構成の一例を示すブロック図。The block diagram which shows an example of a structure of an information display terminal. 情報表示端末をユーザが装着した場合の一例を示す見取図。The sketch which shows an example when a user equips an information display terminal. 第1の実施形態における動作フロー図。The operation|movement flowchart in 1st Embodiment. 第1の実施形態における関連情報表示の一例を示す第1の図。The 1st figure which shows an example of the relevant information display in 1st Embodiment. 第1の実施形態における関連情報表示の一例を示す第2の図。The 2nd figure which shows an example of the relevant information display in 1st Embodiment. ネットワーク上のシステム構成を示すブロック図。The block diagram which shows the system configuration on a network. 第2の実施形態における動作フロー図。The operation|movement flowchart in 2nd Embodiment. 表示トリガー登録時の表示例を示す図。The figure which shows the example of a display at the time of display trigger registration. 第2の実施形態における関連情報表示の一例を示す第1の図。The 1st figure which shows an example of the relevant information display in 2nd Embodiment. 第2の実施形態における関連情報表示の一例を示す第2の図。The 2nd figure showing an example of related information display in a 2nd embodiment. 第3の実施形態における動作フロー図。The operation|movement flowchart in 3rd Embodiment. 第3の実施形態における関連情報表示の一例を示す第1の図。The 1st figure which shows an example of the relevant information display in 3rd Embodiment. 第3の実施形態における関連情報表示の一例を示す第2の図。The 2nd figure which shows an example of the relevant information display in 3rd Embodiment. 第4の実施形態における動作フロー図。The operation|movement flowchart in 4th Embodiment. 第4の実施形態における関連情報表示の一例を示す第1の図。The 1st figure which shows an example of the relevant information display in 4th Embodiment. 第4の実施形態における関連情報表示の一例を示す第2の図。The 2nd figure which shows an example of the relevant information display in 4th Embodiment.

以下、図面を用いて本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.

図1は、情報表示端末101の構成の一例を示すブロック図である。これを用いて第1の実施形態を説明する。 FIG. 1 is a block diagram showing an example of the configuration of the information display terminal 101. The first embodiment will be described using this.

101は情報表示端末、102は情報表示端末101全体を制御する制御部、103は撮像部、104は画像処理部、105は表示制御部、106はマイクやイヤホンに相当する音声入出力部、107は音声処理部、108は通信処理部、109は通信入出力部、110はGPS(Gloval Positioning System)をはじめとする位置検出部、111はセンサ入出力部、112は各種のセンサである。 Reference numeral 101 is an information display terminal, 102 is a control unit that controls the entire information display terminal 101, 103 is an imaging unit, 104 is an image processing unit, 105 is a display control unit, 106 is a voice input/output unit corresponding to a microphone or earphone, 107 Is a voice processing unit, 108 is a communication processing unit, 109 is a communication input/output unit, 110 is a position detecting unit such as GPS (Global Positioning System), 111 is a sensor input/output unit, and 112 is various sensors.

通信入出力部109はネットワークと無線通信により接続される。本実施形態では情報表示端末101が直接インターネット等に接続されて情報を取得する場合について説明する。但し、Bluetooth(登録商標)等の近距離無線通信により、別な装置である情報端末(スマートフォン等)と通信を行い、インターネット等との接続と主な処理を前記情報端末が行うような構成としてもよい。 The communication input/output unit 109 is connected to the network by wireless communication. In this embodiment, a case where the information display terminal 101 is directly connected to the Internet or the like to acquire information will be described. However, as a configuration in which the information terminal performs communication with another device such as an information terminal (smartphone or the like) by short-range wireless communication such as Bluetooth (registered trademark), and the information terminal performs connection with the Internet or the like and main processing. Good.

情報表示端末101は少なくとも撮像部103及び表示制御部105を備えたヘッドマウントディスプレイである。各種センサ112としては、傾斜センサや加速度センサなどユーザの体勢や動きを検出するもの、視線センサや温度センサなどユーザの身体状態を検出するもの、感圧センサや静電容量センサなどユーザの指示入力を検知する入出力I/Fとして用いられるものをはじめとする、複数のセンサを搭載可能である。 The information display terminal 101 is a head mounted display including at least the image pickup unit 103 and the display control unit 105. As the various sensors 112, a sensor such as an inclination sensor or an acceleration sensor that detects the user's body posture or movement, a sensor that detects the user's physical condition such as a line-of-sight sensor or a temperature sensor, or a user instruction input such as a pressure sensor or a capacitance sensor. It is possible to mount a plurality of sensors including those used as an input/output I/F for detecting the.

図2は、情報表示端末101をユーザが装着した場合の一例を示す見取図である。図1と共通する構成要素には同一の符号を付してある。 FIG. 2 is a sketch drawing showing an example when the user wears the information display terminal 101. The same components as those in FIG. 1 are designated by the same reference numerals.

201はユーザ、202は撮像部103で撮影される第1の画像の領域を模式的に示し、203は表示制御部105により表示される第2の画像の領域を模式的に示したものである。なお前記第2の画像の領域は203で示したサイズあるいは範囲に限定されるものではなく、視野を広くカバーするものであってもよい。また情報表示端末101の形態は、頭部に装着され、ユーザ201の視野内に例えば情報に応じた光を投射して情報を表示する表示制御部105と、ユーザ201の視野方向を撮像可能な撮像部103が配置されるものであれば良い。例えば眼鏡型、ゴーグル型、片目にかかるもの、両目にかかるもの等であって良く、図2に一例として示すような形に限定されるものではない。 Reference numeral 201 is a user, 202 is a schematic view of the area of the first image captured by the image capturing unit 103, and 203 is a schematic view of the area of the second image displayed by the display control unit 105. .. The area of the second image is not limited to the size or range indicated by 203, and may cover a wide field of view. Further, the form of the information display terminal 101 is capable of being imaged in the visual field direction of the user 201, and the display control unit 105 that is mounted on the head and displays information by projecting light according to the information into the visual field of the user 201, for example. What is necessary is just to arrange the imaging unit 103. For example, it may be a spectacle type, goggles type, one-eye type, two-eye type, etc., and is not limited to the shape shown as an example in FIG.

撮像部103で撮像された領域202の第1の画像は、画像処理部104で解析され、そこに含まれる所定のオブジェクトが検出される。検出された該オブジェクトの特徴を表す情報、例えば後記するパターンに係る特徴を表す情報を、通信処理部108を介してネットワークに送信し、これに応じてネットワークより取得された前記オブジェクトに関する情報は、画像処理部104に供給される。画像処理部104は該情報に基づいて前記第2の画像を生成し、表示制御部105に供給する。表示制御部105は前記第2の画像を領域203に表示する。 The first image of the area 202 captured by the image capturing unit 103 is analyzed by the image processing unit 104, and a predetermined object included therein is detected. Information indicating the detected characteristics of the object, for example, information indicating the characteristics related to the pattern described below is transmitted to the network through the communication processing unit 108, and the information about the object acquired from the network in response to the information is It is supplied to the image processing unit 104. The image processing unit 104 generates the second image based on the information and supplies the second image to the display control unit 105. The display control unit 105 displays the second image in the area 203.

表示制御部105は、例えば領域203に相当する位置に設けたハーフミラーに画像を表示し、或いはユーザ201の網膜上に直接第2の画像を投影して表示するが、少なくともヘッドマウントディスプレイとして透過型であり、第2の画像を表示しない場合には、領域203がユーザ201の視野を隠蔽しないものとする。 The display control unit 105 displays an image on, for example, a half mirror provided at a position corresponding to the area 203, or directly projects and displays a second image on the retina of the user 201. In the case of a mold and the second image is not displayed, the area 203 does not hide the visual field of the user 201.

図3は、第1の実施形態における動作フロー図である図4Aと図4Bは、第1の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。 FIG. 3 is an operation flow diagram in the first embodiment. FIGS. 4A and 4B are diagrams showing an example of related information display in the first embodiment, showing a user's visual field.

図3、図4A、図4Bを用いて、本実施形態における情報表示端末101の動作について詳細に説明する。本実施形態では、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトに関する関連情報を第2の画像として表示する場合について説明する。 The operation of the information display terminal 101 in this embodiment will be described in detail with reference to FIGS. 3, 4A, and 4B. In the present embodiment, a case will be described in which the information display terminal 101 displays the related information regarding a predetermined object as the second image, particularly when the user searches for a product in a store or the like.

まずステップ301で処理を開始する。全体の処理開始は、センサ112における感圧センサ等のタッチ入力や、音声入出力部106からのユーザの音声入力によってもよい。また、位置検出部110で検出された位置情報、あるいは撮像部103により撮像された画像を基にユーザが特定の店舗内に居ることを認識して、自動的に行うようにしてもよい。 First, in step 301, the process is started. The entire process may be started by touch input of a pressure sensor or the like in the sensor 112 or user's voice input from the voice input/output unit 106. Further, it may be automatically performed by recognizing that the user is in a specific store based on the position information detected by the position detection unit 110 or the image captured by the image capturing unit 103.

次にステップ302で所定オブジェクトの検出を行う。具体的には撮像部103で継続的に撮像された画像に対して、画像処理部104が画像認識を行い、切り出された複数のオブジェクトが所定パターンの形状、色、あるいはその変形予測値とのマッチングを取られる等して、所定オブジェクトが検出される。前記所定パターンは、店舗情報に応じたデフォルトのパターン(例えば「洋服」等のジャンル)であってもよいし、当該パターンを店舗情報に関連付けてインターネット等から取得するようにしてもよい。 Next, in step 302, a predetermined object is detected. Specifically, the image processing unit 104 performs image recognition on an image continuously captured by the image capturing unit 103, and a plurality of clipped objects are compared with a predetermined pattern shape, color, or its deformation predicted value. A predetermined object is detected by matching or the like. The predetermined pattern may be a default pattern (for example, a genre such as "clothes") according to store information, or the pattern may be acquired from the Internet or the like in association with the store information.

またユーザが所望の商品が決まっている場合は、予め商品名、型番、ジャンル等を指定して、インターネット上のサーバやその他の公開情報から所定パターンを取得し、より具体的な所定オブジェクト検出を行うことも可能である。なおステップ302において検出される所定オブジェクトは単一とは限らず、撮像領域内で同時に複数検出される場合もある。 In addition, when the user has decided on a desired product, the product name, model number, genre, etc. are designated in advance, and a predetermined pattern is acquired from a server on the Internet or other public information to detect a more specific predetermined object. It is also possible to do so. The predetermined object detected in step 302 is not limited to a single object, and a plurality of predetermined objects may be detected simultaneously in the imaging area.

所定オブジェクトが検出されると、ステップ303において当該所定オブジェクトについての関連情報が取得される。具体的には通信処理部108により、前記所定オブジェクトに関する情報がインターネット等から通信入出力部109を介して取得される。撮像部103により撮像された所定オブジェクトの画像から、商品タグ等により商品名、型番等が確定できる場合には、それらに基づき関連情報を取得することも可能である。 When the predetermined object is detected, related information about the predetermined object is acquired in step 303. Specifically, the communication processing unit 108 acquires information about the predetermined object from the Internet or the like via the communication input/output unit 109. When the product name, model number, etc. can be determined by the product tag or the like from the image of the predetermined object imaged by the imaging unit 103, it is also possible to acquire the related information based on them.

続いてステップ304で表示トリガーの判定が行われる。表示トリガーとは、関連情報に基づく前記第2の画像の表示を開始するための特定のオブジェクトであり、この場合は「手」を表示トリガーとしている。ステップ302で所定オブジェクトが検出され、ステップ303で当該所定オブジェクトの関連情報が取得されていても、前記表示トリガーが撮像部103で撮像され画像処理部104で認識されない限り、前記第2の画像の表示は行わない。なお、画像表示部104が「手」を認識する方法は、ステップ302におけるオブジェクトの認識と同様な方法である。 Then, in step 304, the display trigger is determined. The display trigger is a specific object for starting the display of the second image based on the related information, and in this case, the "hand" is used as the display trigger. Even if the predetermined object is detected in step 302 and the related information of the predetermined object is acquired in step 303, unless the display trigger is captured by the image capturing unit 103 and recognized by the image processing unit 104, the second image of the second image is detected. Not displayed. The method of recognizing the “hand” by the image display unit 104 is the same as the method of recognizing the object in step 302.

例えば図4Aで示すように、撮像領域401の中で402から405がそれぞれ所定オブジェクトとして検出されていても、表示トリガーが撮像領域401内に存在しないため、前記第2の画像の表示は行わない(ステップ304のNo)。 For example, as shown in FIG. 4A, even if 402 to 405 are detected as the predetermined objects in the image pickup area 401, the second image is not displayed because the display trigger does not exist in the image pickup area 401. (No in step 304).

一方図4Bで示すように、表示トリガーである特定オブジェクト407が撮像領域401内に認識され、所定オブジェクトに近接していると判断されると(ステップ304のYes)、ステップ305において、特定された所定オブジェクト402の関連情報に基づいた前記第2の画像が、画像処理部104にて生成される。さらに前記第2の画像は、所定オブジェクト402に関連する情報として認識できる形で、表示制御部105により表示される。 On the other hand, as shown in FIG. 4B, when the specific object 407 that is the display trigger is recognized in the imaging area 401 and it is determined that the object is close to the predetermined object (Yes in step 304 ), the specific object 407 is identified in step 305. The second image based on the related information of the predetermined object 402 is generated by the image processing unit 104. Further, the second image is displayed by the display control unit 105 in a form that can be recognized as information related to the predetermined object 402.

第2の画像406として表示される内容は、この場合所定オブジェクト402に関する商品情報である。ここでは当該商品に関する口コミ情報や価格相場情報などが、ユーザに認識されやすい形式で表示されている。なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域401の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。 In this case, the content displayed as the second image 406 is product information regarding the predetermined object 402. Here, word-of-mouth information and price information about the product are displayed in a format that is easily recognized by the user. Note that the displayed content may be any information useful to the user, and is not particularly limited. Further, the broken line of the imaging region 401 is shown only for the sake of convenience, and is not displayed within the visual field of the user.

ステップ306において、前記表示トリガーの判定が継続的に行われ、表示トリガーが認識されている間は前記関連情報の表示を行う。なお表示トリガーの位置が変更され、所定オブジェクトが変更になった場合は、変更後の所定オブジェクトに関する第2の画像に切り替えるようにする(ステップ306のYes)。また表示トリガーである特定オブジェクト407が撮像領域401の中で認識できなくなった場合は、ステップ307において前記第2の画像の表示を終了し、再びステップ302の所定オブジェクトの検出に戻る(ステップ306のNo)。 In step 306, the determination of the display trigger is continuously performed, and the related information is displayed while the display trigger is recognized. When the position of the display trigger is changed and the predetermined object is changed, the display image is switched to the second image regarding the changed predetermined object (Yes in step 306). When the specific object 407, which is a display trigger, cannot be recognized in the imaging region 401, the display of the second image is ended in step 307, and the process returns to the detection of the predetermined object in step 302 (step 306). No).

図5は、ネットワーク上のシステム構成を示すブロック図である。通信処理部108を介した前記関連情報の取得について、図5を用いて簡単に説明する。 FIG. 5 is a block diagram showing a system configuration on the network. Acquisition of the related information via the communication processing unit 108 will be briefly described with reference to FIG.

情報表示端末101は、前述の構成によりインターネット501から所定オブジェクト402の関連情報を取得する。当該情報は不特定な第三者により、例えばパーソナルコンピュータ502、携帯端末503、情報表示端末504などを用いてインターネット501を介して送信され、例えばサーバ505によりストレージ506に蓄積される。情報表示端末101は、撮像部103が撮像した画像から検出した所定オブジェクト402を識別する情報を送信し、サーバ505はストレージ506に蓄積された情報の中から、所定オブジェクト402に関連する情報を情報表示端末101に対して提供する。 The information display terminal 101 acquires the related information of the predetermined object 402 from the Internet 501 with the above-described configuration. The information is transmitted by an unspecified third party via the Internet 501 using, for example, the personal computer 502, the mobile terminal 503, the information display terminal 504, etc., and is stored in the storage 506 by the server 505, for example. The information display terminal 101 transmits information for identifying the predetermined object 402 detected from the image captured by the image capturing unit 103, and the server 505 provides information related to the predetermined object 402 among the information accumulated in the storage 506. It is provided to the display terminal 101.

なおサーバ505は予め所定の店舗、所定の地域等について情報を集約し、情報表示端末向けに情報提供を行う。逆に特定のサーバ505が関連情報を集約していない場合は、インターネットに接続された複数のサーバが公開している情報から、情報表示端末101が所定オブジェクト402に関連する情報を検索して取得することもできる。 The server 505 collects information about a predetermined store, a predetermined area, and the like in advance and provides the information to the information display terminal. On the contrary, when the specific server 505 does not collect related information, the information display terminal 101 searches for and acquires information related to the predetermined object 402 from the information disclosed by a plurality of servers connected to the Internet. You can also do it.

以上のように本発明の第1の実施形態によれば、ウェアラブルな情報表示端末において、所定オブジェクトの関連情報について、例えば手をオブジェクトに近づけるという表示トリガーを用いて前記第2の画像の表示開始あるいは終了を行う。これにより、ユーザの意思あるいは行動(例えば商品を手に取る=商品に関連する情報を見たい)を反映したタイミング及び期間に前記第2の画像の表示を行うことが可能となる。ユーザは情報表示端末を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上する。また不要なタイミングで前記第2の画像が表示され、あるいは複数のオブジェクトに対する情報が同時に表示されるようなことがなくなるため、ユーザにとって煩わしい表示となることを回避できるという効果がある。 As described above, according to the first embodiment of the present invention, in the wearable information display terminal, regarding the related information of the predetermined object, the display start of the second image is started by using the display trigger of bringing the hand close to the object, for example. Alternatively, it ends. As a result, it is possible to display the second image at a timing and a period in which the user's intention or action (for example, picking up a product = wanting to see information related to a product) is reflected. The user can freely use both hands while wearing the information display terminal, and there is no need to operate the information display terminal 101 itself when selecting an object, which improves convenience. In addition, the second image is not displayed at unnecessary timings, or the information for a plurality of objects is not displayed at the same time, and thus it is possible to prevent the display from being bothersome to the user.

次に、情報表示端末101の第2の実施形態を、図6から図8Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また第1の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示する場合について説明する。 Next, a second embodiment of the information display terminal 101 will be described with reference to FIGS. 6 to 8B. Since the configuration of the information display terminal 101 is basically the same as that in the case of FIG. 1 described above, description will be given using the numbers given to the respective constituent elements of FIG. Similarly to the first embodiment, a case will be described in which the information display terminal 101 displays the related information about a predetermined object as the second image, especially when the user colors the product in the store or the like.

図6は、第2の実施形態における動作フロー図である。 FIG. 6 is an operation flow chart in the second embodiment.

図7は、表示トリガー登録時の表示例を示す図である。 FIG. 7 is a diagram showing a display example when a display trigger is registered.

本実施形態において特徴的となるのは、ユーザが前述の表示トリガーを登録できるようにしている点である。図6は表示トリガー登録時の動作フローを示しており、図7は表示トリガー登録時のユーザの視野を示している。 The feature of this embodiment is that the user can register the above-mentioned display trigger. FIG. 6 shows an operation flow when registering a display trigger, and FIG. 7 shows a field of view of a user when registering a display trigger.

まずステップ601で処理を開始する。処理開始としては、感圧センサ等のタッチ入力や音声入力によるユーザ指示により行うことができる。次にステップ602において、表示トリガーを登録するための枠を表示する。具体的には画像処理部104が登録枠を表す画像を生成し、表示制御部105が図7のように撮像部103の撮像領域701の範囲内、即ちユーザの視野方向に登録枠702を表示する。 First, in step 601, the process is started. The process can be started by a user input by touch input or voice input of a pressure sensor or the like. Next, in step 602, a frame for registering a display trigger is displayed. Specifically, the image processing unit 104 generates an image representing the registration frame, and the display control unit 105 displays the registration frame 702 in the range of the image capturing area 701 of the image capturing unit 103, that is, in the user's visual field direction as shown in FIG. 7. To do.

ステップ603において、ユーザは表示トリガーとして登録したい特定オブジェクトを、登録枠702に収まるように位置させる。この場合は「手のひら」を特定オブジェクト703としている。続いてステップ604において、撮像部103で撮像された画像から、画像処理部104が登録枠702の範囲内に特定オブジェクト703が存在すると認識すると、当該オブジェクトを表示トリガーとして登録するか否かをユーザに問合せる。ユーザへの問合せは、図7に示すように文字の表示で行ってもよいし、音声入出力部106からの音声出力により行ってもよい。 In step 603, the user positions the specific object to be registered as the display trigger so as to fit in the registration frame 702. In this case, the “palm” is the specific object 703. Subsequently, in step 604, when the image processing unit 104 recognizes that the specific object 703 exists within the range of the registration frame 702 from the image captured by the image capturing unit 103, the user determines whether to register the object as a display trigger. Contact The inquiry to the user may be made by displaying characters as shown in FIG. 7, or may be made by voice output from the voice input/output unit 106.

ユーザの指示入力により登録指示がなされると(ステップ604のYes)、特定オブジェクト703が表示トリガーとして情報表示端末101内のメモリ(図示せず)に記憶される。なお、該メモリは制御部102又は画像処理部104からアクセスできるように設けられるか、これらが内蔵しても良い。その後ステップ606において処理を終了する。なおステップ604で画像処理部104が特定オブジェクト703の存在を認識した段階で、特定オブジェクト703の輪郭を表す画像を生成し表示制御部105が表示するとともに、音声入出力部106から音声を出力し、ユーザに特定オブジェクト703が認識されたことを通知することも可能である。 When the registration instruction is given by the user's instruction input (Yes in step 604), the specific object 703 is stored in the memory (not shown) in the information display terminal 101 as a display trigger. The memory may be provided so as to be accessible from the control unit 102 or the image processing unit 104, or may be built therein. Then, in step 606, the process ends. When the image processing unit 104 recognizes the existence of the specific object 703 in step 604, an image representing the outline of the specific object 703 is generated and displayed by the display control unit 105, and a voice is output from the voice input/output unit 106. It is also possible to notify the user that the specific object 703 has been recognized.

図8Aと図8Bは、第2の実施形態における関連情報表示の一例を示す図である。ここで第1の実施形態の場合と同様に、ユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について、図8Aと図8Bを用いて説明する。ここでは、ステップ605で特定オブジェクト703として、「手のひら」が登録されたものとする。 8A and 8B are diagrams illustrating an example of related information display according to the second embodiment. Here, as in the case of the first embodiment, in the case where the information display terminal 101 displays the related information about the predetermined object as the second image when the user searches for the product in the store or the like. This will be described with reference to FIGS. 8A and 8B. Here, it is assumed that “palm” is registered as the specific object 703 in step 605.

動作フローは基本的に図3の場合と同様であるので、詳細な説明は省略する。前述のステップ304の表示トリガーの判定において、図8Aに示すように撮像領域801内に所定オブジェクト802が存在し、関連情報がインターネット等から取得されているが、特定オブジェクト803は「手の甲」であり、登録された表示トリガーとして認識されないため、関連情報の表示は行われない。登録された表示トリガーとの一致判定は、画像処理部104においてオブジェクトの形状、色、あるいはそれらの変形予測値等とのマッチングが取られる等して判断される。図8Bでは特定オブジェクト804は「手のひら」であり、図6のステップ605で登録済の表示トリガーとして判断される。 Since the operation flow is basically the same as that in the case of FIG. 3, detailed description will be omitted. In the determination of the display trigger in step 304 described above, the predetermined object 802 exists in the imaging area 801 as shown in FIG. 8A, and the related information is acquired from the Internet or the like, but the specific object 803 is the “back of the hand”. , Related information is not displayed because it is not recognized as a registered display trigger. The matching determination with the registered display trigger is performed by the image processing unit 104 by matching with the shape and color of the object or their predicted deformation values. In FIG. 8B, the specific object 804 is a “palm” and is determined as a registered display trigger in step 605 of FIG.

さらに、ステップ305において、表示トリガーにより特定された所定オブジェクト802の関連情報が、画像処理部104にて第2の画像805として生成される。さらに前記第2の画像805は、所定オブジェクト802に関連する情報として認識できる形で、表示制御部105により表示される。 Further, in step 305, the related information of the predetermined object 802 specified by the display trigger is generated as the second image 805 by the image processing unit 104. Further, the second image 805 is displayed by the display control unit 105 in a form that can be recognized as information related to the predetermined object 802.

前述と同様に、第2の画像805として表示される内容は、所定オブジェクト802に関する商品情報としてユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域701及び801の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。 Similar to the above, the content displayed as the second image 805 may be any information useful for the user as product information regarding the predetermined object 802, and is not particularly limited. Further, the broken lines of the imaging regions 701 and 801 are shown only for convenience, and are not displayed within the user's visual field.

以上のように本発明の第2の実施形態によれば、ウェアラブルな情報表示端末において、特定のオブジェクトを表示トリガーとして登録することにより、ユーザの意図に応じた前記第2の画像の表示開始あるいは終了を行うことができる。実施形態1の場合と同様に、ユーザは情報表示端末を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなく、またユーザの要望に応じて適宜表示トリガーを変えることが可能となるため、利便性が向上する。 As described above, according to the second embodiment of the present invention, in the wearable information display terminal, by registering a specific object as a display trigger, display start of the second image according to the user's intention or The termination can be done. As in the case of the first embodiment, the user can freely use both hands while wearing the information display terminal, there is no need to operate the information display terminal 101 itself when selecting an object, and Since it is possible to change the display trigger as needed, the convenience is improved.

本実施形態の変形例として、図3のステップ301における処理開始を、登録された表示トリガーにより行う実施形態が考えられる。つまり情報表示端末101の動作として、まずステップ301で継続して表示トリガーの判定のみを行う。そして、撮像部103で撮像された画像から、画像認識部104において認識されたオブジェクトが、登録された表示トリガーと一致すると判定された場合に、ステップ302以降の動作を行う実施形態である。本実施形態の例では、撮像領域401に「手のひら」を示すことで一連の動作を行わせることができる。動作の開始が簡単になるため、更にユーザの利便性を向上することができるという効果がある。 As a modified example of the present embodiment, an embodiment in which the processing start in step 301 of FIG. 3 is performed by the registered display trigger can be considered. That is, as the operation of the information display terminal 101, first in step 301, only the determination of the display trigger is continuously performed. Then, when it is determined from the image captured by the image capturing unit 103 that the object recognized by the image recognizing unit 104 matches the registered display trigger, the operation after step 302 is performed. In the example of the present embodiment, a series of operations can be performed by showing the “palm” in the imaging area 401. Since the operation can be started easily, there is an effect that the convenience of the user can be further improved.

次に情報表示端末101の第3の実施形態を、図9、図10Aと図10Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また本実施形態でも前述の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明する。 Next, a third embodiment of the information display terminal 101 will be described with reference to FIGS. 9, 10A and 10B. Since the configuration of the information display terminal 101 is basically the same as that in the case of FIG. 1 described above, description will be given using the numbers given to the respective constituent elements of FIG. Also in the present embodiment, as in the above-described embodiments, the information display terminal 101 displays related information as a second image for a predetermined object, especially when the user is looking for a product in a store or the like. The case will be described.

図9は、第3の実施形態における動作フロー図である。 FIG. 9 is an operation flow chart in the third embodiment.

図10Aと図10Bは、第3の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。 FIG. 10A and FIG. 10B are diagrams showing an example of related information display in the third embodiment, and show the field of view of the user.

ステップ901からステップ903の動作については、前述の図3におけるステップ301からステップ303の動作と同様であり、詳細な説明は省略する。ステップ901で処理を開始すると、ステップ902で所定オブジェクトを検出し、ステップ903で前記所定オブジェクトに関する関連情報がインターネット等から取得される。なおステップ902において検出される所定オブジェクトは単一とは限らず、撮像領域内で同時に複数検出される場合もある。 The operations of steps 901 to 903 are the same as the operations of steps 301 to 303 in FIG. 3 described above, and detailed description thereof will be omitted. When the processing is started in step 901, a predetermined object is detected in step 902, and in step 903, related information regarding the predetermined object is acquired from the Internet or the like. The predetermined object detected in step 902 is not limited to a single object, and a plurality of predetermined objects may be detected simultaneously in the imaging area.

続いてステップ904でユーザの視線判定が行われる。情報表示端末101を装着したユーザの視線は、センサ112に含まれる視線センサにより、その注視点が検出される。視線センサについては、例えば前述の特許文献1に記載の赤外線を利用した方法、CMOS(ComplementaryMetal−Oxide Semiconductor)センサを利用した方法等が知られている。注視点が前記検出した所定オブジェクトにかかる範囲にない場合(ステップ904のNo)、前記関連情報に係る第2の画像の表示は行わない。例えば図10Aで示すように、撮像領域1001の中で1002から1005がそれぞれ所定オブジェクトとして検出されていても、注視点1006がいずれかの所定オブジェクトにもかからない場合は、関連情報に係る第2の画像の表示は行わない。 Subsequently, in step 904, the line of sight of the user is determined. The gaze point of the user wearing the information display terminal 101 is detected by the gaze sensor included in the sensor 112. Regarding the line-of-sight sensor, for example, a method using infrared rays described in Patent Document 1 and a method using a CMOS (Complementary Metal-Oxide Semiconductor) sensor are known. When the gazing point is not within the range of the detected predetermined object (No in step 904), the second image related to the related information is not displayed. For example, as shown in FIG. 10A, even if 1002 to 1005 are respectively detected as the predetermined objects in the imaging region 1001, if the gazing point 1006 does not reach any one of the predetermined objects, the second information related to the related information is displayed. No image is displayed.

一方、図10Bのように、注視点1006が所定オブジェクト1002にかかった場合、その状態が所定時間(例えば3秒)以上継続した場合は(ステップ904のYes)、ステップ905において、当該所定オブジェクト1002の関連情報が、画像処理部104にて第2の画像1007として生成され、所定オブジェクト1002に関連する情報として認識できる形で、表示制御部105により表示される。第2の画像1007として表示される内容は、前述の実施例と同様に、所定オブジェクト1002に関する商品情報であり、当該商品に関する口コミ情報や価格相場情報などを、ユーザが認識しやすい形式で表示している。 On the other hand, as shown in FIG. 10B, when the gazing point 1006 is on the predetermined object 1002 and the state continues for a predetermined time (for example, 3 seconds) or more (Yes in step 904), the predetermined object 1002 is determined in step 905. Related information of is generated as a second image 1007 by the image processing unit 104, and is displayed by the display control unit 105 in a form that can be recognized as information related to the predetermined object 1002. The content displayed as the second image 1007 is the product information regarding the predetermined object 1002 as in the above-described embodiment, and the word-of-mouth information and the price quote information regarding the product are displayed in a format that the user can easily recognize. ing.

なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域1001の破線及び注視点1006のマークは、便宜上示しているのみであり、ユーザの視野内に表示されるものではない。ただし注視点1006のマークについては、画像として表示するモードを設けてユーザが認識できるようにすることも可能であり、その場合マークの形状は注視点1006の形状に限定されない。 Note that the displayed content may be any information useful to the user, and is not particularly limited. Further, the broken line of the imaging region 1001 and the mark of the gazing point 1006 are shown for convenience only, and are not displayed in the visual field of the user. However, with respect to the mark of the gazing point 1006, it is possible to provide a mode in which it is displayed as an image so that the user can recognize it. In that case, the shape of the mark is not limited to the shape of the gazing point 1006.

ステップ906において、視線判定を継続的に行い、注視点1006が所定オブジェクト1002あるいは第2の画像1007にかかる範囲にある間は、第2の画像1007を表示する(ステップ906のYes)。これは第2の画像1007が表示された時点で、注視点1006は第2の画像1007側に移動するためである。また注視点1006が所定オブジェクト1002あるいは第2の画像1007にかかる範囲から外れた場合、または外れて所定時間(例えば3秒)以上継続した場合は、第2の画像1007の表示を終了し(ステップ906のNo)、再びステップ902の所定オブジェクトの検出に戻る。 In step 906, the line-of-sight determination is continuously performed, and the second image 1007 is displayed while the gazing point 1006 is within the range of the predetermined object 1002 or the second image 1007 (Yes in step 906). This is because the gazing point 1006 moves to the second image 1007 side when the second image 1007 is displayed. If the gazing point 1006 is out of the range of the predetermined object 1002 or the second image 1007, or if it is out of the range and continues for a predetermined time (for example, 3 seconds) or more, the display of the second image 1007 is terminated (step (No in 906), the process returns to the detection of the predetermined object in step 902.

以上のように第3の実施形態によれば、ウェアラブルな情報表示端末101において、所定オブジェクトの関連情報について、ユーザの注視点に応じて第2の画像の表示開始あるいは終了を行うことにより、ユーザの意思あるいは行動(例えば商品に注目している=商品に関連する情報を見たい)を反映したタイミング及び期間に画像の表示を行うことが可能となる。前述の実施形態の場合と同様に、ユーザは情報表示端末101を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上する。また不要なタイミングで第2の画像が表示される、あるいは複数のオブジェクトに対する情報が同時に表示されるようなことがなくなるため、ユーザにとって煩わしい表示となることを回避できるという効果がある。 As described above, according to the third embodiment, in the wearable information display terminal 101, with respect to the related information of the predetermined object, by starting or ending the display of the second image according to the user's gaze point, the user can It is possible to display an image at a timing and a period in which the intention or action (for example, paying attention to a product = wanting to see information related to a product) is reflected. As in the case of the above-described embodiment, the user can freely use both hands while wearing the information display terminal 101, and it is not necessary to operate the information display terminal 101 itself when selecting an object, which is convenient. The property is improved. In addition, the second image is not displayed at unnecessary timings, or the information for a plurality of objects is not displayed at the same time, and thus it is possible to prevent the display from being bothersome to the user.

次に情報表示端末101の第4の実施形態を、図11、図12Aと図12Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また本実施形態でも前述の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明する。 Next, a fourth embodiment of the information display terminal 101 will be described with reference to FIGS. 11, 12A and 12B. Since the configuration of the information display terminal 101 is basically the same as that in the case of FIG. 1 described above, description will be given using the numbers given to the respective constituent elements of FIG. Also in the present embodiment, as in the above-described embodiments, the information display terminal 101 displays related information as a second image for a predetermined object, especially when the user is looking for a product in a store or the like. The case will be described.

図11は、第4の実施形態における動作フロー図である。 FIG. 11 is an operation flow chart in the fourth embodiment.

図12Aと図12Bは、第4の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。 FIG. 12A and FIG. 12B are diagrams showing an example of related information display in the fourth embodiment, and show the field of view of the user.

ステップ1101からステップ1103の動作については、前述の図3におけるステップ301からステップ303の動作と同様であり、詳細な説明は省略する。ステップ1101で処理を開始すると、ステップ1102で所定オブジェクトを検出し、ステップ1103で前記所定オブジェクトに関する関連情報がインターネット等から取得される。なお本実施形態では、ステップ1102において撮像領域内で同時に複数の所定オブジェクトが検出される場合について説明する。 The operations from step 1101 to step 1103 are the same as the operations from step 301 to step 303 in FIG. 3 described above, and detailed description thereof will be omitted. When the processing is started in step 1101, a predetermined object is detected in step 1102, and in step 1103 related information about the predetermined object is acquired from the Internet or the like. In the present embodiment, a case will be described in which a plurality of predetermined objects are simultaneously detected in the imaging area in step 1102.

複数の所定オブジェクトが検出され関連情報が取得されると、ステップ1104において候補マークの表示が行われる。候補マークとは、検出された所定オブジェクトで関連情報として有効なものを取得できた場合に表示されるマークのことである。例えば図12Aは、ステップ1102において撮像領域1201内で1202から1205が所定オブジェクトとして検出され、ステップ1103において1202、1204、1205について有効な関連情報が取得できた場合を示している。1206から1208が候補マークであり、画像処理部104により画像として生成され、表示制御部105により該当する所定オブジェクトの一部に重畳するように表示される。なお候補マークは、ユーザが認識できる程度の大きさで、どの所定オブジェクトに関連するものかを判別できるものであれば、その形状は図12Aに示すものに限定されない。 When a plurality of predetermined objects are detected and the related information is acquired, candidate marks are displayed in step 1104. The candidate mark is a mark displayed when a valid one of the detected predetermined objects can be acquired as the related information. For example, FIG. 12A shows a case where 1202 to 1205 are detected as predetermined objects in the imaging region 1201 in step 1102, and valid related information about 1202, 1204, and 1205 can be acquired in step 1103. The candidate marks 1206 to 1208 are generated as an image by the image processing unit 104, and are displayed by the display control unit 105 so as to be superimposed on a part of the corresponding predetermined object. Note that the shape of the candidate mark is not limited to that shown in FIG. 12A as long as the candidate mark is large enough to be recognized by the user and it can be discriminated to which predetermined object it is related.

続いてステップ1105で表示トリガーの判定が行われる。この場合前述の実施例と同様に「手」を表示トリガーとしている。図12Aでは、撮像領域1201の中で表示トリガーが存在しないため、候補マーク1206、1207、1208のみが表示されており、各所定オブジェクトの関連情報に係る第2の画像の表示は行われない。 Then, in step 1105, the display trigger is determined. In this case, the "hand" is used as the display trigger as in the above-described embodiment. In FIG. 12A, since there is no display trigger in the imaging area 1201, only the candidate marks 1206, 1207, and 1208 are displayed, and the second image related to the related information of each predetermined object is not displayed.

一方図12Bのように、表示トリガーである特定オブジェクト1209が撮像領域1201内に認識され、所定オブジェクト1202に近接していると判断されると、ステップ1106において、表示トリガーにより特定された所定オブジェクト1202の関連情報が、画像処理部104にて第2の画像1210として生成され、候補マーク1206に代わるものとして、表示制御部105により表示される。 On the other hand, as shown in FIG. 12B, when the specific object 1209, which is a display trigger, is recognized in the imaging area 1201 and is determined to be close to the predetermined object 1202, the predetermined object 1202 specified by the display trigger is determined in step 1106. Related information of is generated as a second image 1210 by the image processing unit 104, and is displayed by the display control unit 105 as a substitute for the candidate mark 1206.

この場合、所定オブジェクト1202は他のオブジェクト1203乃至1205に近接している。このため、第2の画像1210は所定オブジェクト1202の一部と重畳するように表示される。これにより、第2の画像1210が、どのオブジェクトに係る表示であるかを明確にしている。なお、他の実施形態においても、第2の画像がどのオブジェクトに係る画像であるかを明確にするためには、前記第2の画像を関連するオブジェクトと一部が重畳するように表示すると良い。 In this case, the predetermined object 1202 is close to the other objects 1203 to 1205. Therefore, the second image 1210 is displayed so as to overlap a part of the predetermined object 1202. This makes it clear which object the second image 1210 relates to. In addition, also in other embodiments, in order to clarify which object the second image relates to, it is preferable to display the second image such that a part of the second image overlaps the related object. ..

第2の画像1210として表示される内容は、前述の実施形態と同様に、所定オブジェクト1202に関する商品情報であり、当該商品に関する口コミ情報や価格相場情報などを、ユーザが認識しやすい形式で表示している。なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また候補マーク1207及び1208は、該当オブジェクトが選択されていない状態なので、継続的に候補マークのまま表示される。なお撮像領域1201の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。 The content displayed as the second image 1210 is the product information regarding the predetermined object 1202, as in the above-described embodiment, and the word-of-mouth information and the price quote information regarding the product are displayed in a format that the user can easily recognize. ing. Note that the displayed content may be any information useful to the user, and is not particularly limited. Further, the candidate marks 1207 and 1208 are continuously displayed as the candidate marks because the corresponding object is not selected. Note that the broken line of the imaging region 1201 is shown only for the sake of convenience, and is not displayed within the user's visual field.

ステップ1107において、前記表示トリガーの判定が継続的に行われ、表示トリガーが認識されている間は前記関連情報の表示を行う(ステップ1107のYes)。なお表示トリガーの位置が変更され、表示トリガーに近接する所定オブジェクトが変更になった場合は、変更後の所定オブジェクトについての候補マークを関連情報に係る第2の画像の表示に切り替えるようにする。また変更前の所定オブジェクトについては、関連情報に係る第2の画像から候補マーク表示に再び切り替えるようにする。表示トリガーである特定オブジェクト1209が撮像領域1201の中で認識できなくなった場合は(ステップ1107のNo)、ステップ1108において前記関連情報に係る第2の画像表示を終了し、ステップ1102の所定オブジェクトの検出に戻る。ただし撮像領域1201内で表示済の候補マークについては、表示を継続する。 In step 1107, the determination of the display trigger is continuously performed, and the related information is displayed while the display trigger is recognized (Yes in step 1107). When the position of the display trigger is changed and the predetermined object near the display trigger is changed, the candidate mark of the changed predetermined object is switched to the display of the second image related to the related information. For the predetermined object before the change, the second image related to the related information is switched to the candidate mark display again. When the specific object 1209 which is the display trigger cannot be recognized in the imaging area 1201 (No in step 1107), the second image display related to the related information is ended in step 1108, and the predetermined object of step 1102 is displayed. Return to detection. However, the candidate marks already displayed in the image pickup area 1201 continue to be displayed.

以上のように第4の実施形態によれば、ウェアラブルな情報表示端末101において、所定オブジェクトの関連情報表示に先立って候補マークを表示することにより、ユーザは予め関連情報を表示可能なオブジェクトがどれなのかを認識することが可能となる。関連情報自体については、表示トリガーを用いて第2の画像の表示開始あるいは終了を行うので、ユーザの意思あるいは行動を反映したタイミング及び期間に第2の画像の表示を行うことが可能である。ユーザは情報表示端末101を装着した状態で両手を自由に使うことが可能であり、どのオブジェクトについて関連情報が表示可能かを認識しながら第2の画像の表示を行うことができる。さらに、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上するという効果がある。 As described above, according to the fourth embodiment, by displaying the candidate mark on the wearable information display terminal 101 prior to displaying the related information of the predetermined object, the user can select which object can display the related information in advance. It becomes possible to recognize what. With regard to the related information itself, the display trigger is used to start or end the display of the second image, so that it is possible to display the second image at a timing and period that reflects the user's intention or action. The user can freely use both hands while wearing the information display terminal 101, and can display the second image while recognizing which object the related information can be displayed. Furthermore, there is no need to operate the information display terminal 101 itself when selecting an object, which has the effect of improving convenience.

本実施形態の変形例として、図12Aにおける候補マーク1206から1208の大きさあるいは色を、該当する関連情報の内容の有効性により差を付ける実施形態が考えられる。候補マークを表示する時点で各関連情報は取得済なので、例えば付加情報の量が多い場合、または事前にユーザが指定した商品である場合等に、表示マークを大きくする、あるいは赤色系の枠にする。これにより、さらにユーザが事前に認識しやすいものとすることが可能である。 As a modified example of this embodiment, an embodiment in which the sizes or colors of the candidate marks 1206 to 1208 in FIG. 12A are made different according to the validity of the content of the relevant information concerned can be considered. Since each related information has been acquired at the time of displaying the candidate mark, for example, when the amount of additional information is large, or when the product is specified by the user in advance, the display mark is enlarged or the red frame is displayed. To do. This makes it easier for the user to recognize in advance.

なお本実施形態では、候補マークを表示する動作について、第1の実施形態に組み合わせるような場合について説明したが、その他の実施形態に組み合わせて実施することも可能である。 In the present embodiment, the operation of displaying the candidate mark has been described as being combined with the first embodiment, but the operation may be combined with other embodiments.

以上説明した全ての実施形態において、特にユーザが店舗内、特に衣料品店で商品を物色している場合に、情報表示端末が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明してきた。しかし、適用場面はこれに限定されるものではなく、その他のカテゴリの店舗や、屋外での情報表示などに適用することも可能である。また表示トリガーとして主に「手」を用いる場合について説明したが、その他のものを指定して表示トリガーとすることができる。 In all of the embodiments described above, in the case where the information display terminal displays the related information as the second image for a predetermined object, especially when the user is looking for the product in the store, particularly in the clothing store. Has been explained. However, the application scene is not limited to this, and the invention can be applied to stores in other categories, information display outdoors, and the like. Further, although the case where the “hand” is mainly used as the display trigger has been described, other ones can be designated and used as the display trigger.

また本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。さらに上記の各機能、処理部等は、それらの一部又は全部をハードウェアで実現しても良いし、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することによりソフトウェアで実現してもよい。なお制御線や情報線は説明上必要と考えられるものを示しており、必ずしも全ての制御線や情報線を示しているとは限らない。 Further, the present invention is not limited to the above-described embodiment, and various modifications are included. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Further, the above-mentioned respective functions, processing units, etc. may be realized partially or entirely by hardware, or may be realized by software by the processor interpreting and executing a program for realizing each function. Good. It should be noted that the control lines and information lines shown are those that are considered necessary for explanation, and not all the control lines and information lines are shown.

101、504… 情報表示端末、102… 制御部、103… 撮像部、104… 画像処理部、105… 表示制御部、106… 音声入出力部、107… 音声処理部、108… 通信処理部、109… 通信入出力部、110…位置検出部、111… センサ入出力部、112… 各種センサ、201… ユーザ、202、401、701、801、1001、1201… 撮像領域、203… 画像領域、402、802、1002、1202… 所定オブジェクト、406、805、1007、1210… 関連情報の画像、407、804、1209… 表示トリガー、501… インターネット、502… パーソナルコンピュータ、503… 携帯端末、505… サーバ、506… ストレージ、702… 登録枠、1006… 注視点、1206、1207、1208… 候補マーク。 101, 504... Information display terminal, 102... Control section, 103... Imaging section, 104... Image processing section, 105... Display control section, 106... Voice input/output section, 107... Voice processing section, 108... Communication processing section, 109 ... communication input/output unit, 110... position detection unit, 111... sensor input/output unit, 112... various sensors, 201... user, 202, 401, 701, 801, 1001, 1201... imaging region, 203... image region, 402, 802, 1002, 1202... Predetermined object, 406, 805, 1007, 1210... Related information image, 407, 804, 1209... Display trigger, 501... Internet, 502... Personal computer, 503... Mobile terminal, 505... Server, 506 ... Storage, 702... Registration frame, 1006... Gaze point, 1206, 1207, 1208... Candidate mark.

Claims (4)

使用者の視野方向に情報を表示する情報表示端末であって、
ネットワークから情報を取得するための通信を行う通信処理部と、
前記視野方向を撮像する撮像部と、
前記撮像部が撮像した第1の画像から第1のオブジェクトを検出し、前記通信処理部を介して前記ネットワークから取得した前記第1のオブジェクトの関連情報を第2の画像として生成する画像処理部と、
前記第2の画像を前記視野方向に表示する表示制御部と、
前記使用者の注視点を検出する視線センサと、
前記情報表示端末の構成要素の動作を制御する制御部と
を有し、
前記制御部は、
前記ネットワークから前記第1のオブジェクトの関連情報を取得した場合に前記画像処理部に所定のマーク画像を生成させ、
前記所定のマーク画像を、前記関連情報が取得された第1のオブジェクトの一部に重畳表示するよう前記表示制御部を制御し、
前記視線センサが検出した前記使用者の注視点が前記第1のオブジェクトに重なる位置に所定時間以上存在したかを判定し、
存在したと判定した場合には、前記第1のオブジェクトの一部に重畳表示されていた前記所定のマーク画像に代えて前記第2の画像を表示するよう前記表示制御部を制御し、
前記使用者の注視点が前記第2の画像に重なる範囲に存在する間は、前記第2の画像の表示を継続するよう前記表示制御部を制御する
ことを特徴とする情報表示端末。
An information display terminal for displaying information in the direction of the user's field of view,
A communication processing unit that performs communication for acquiring information from the network,
An image pickup unit for picking up the visual field direction,
An image processing unit that detects a first object from a first image captured by the image capturing unit and generates related information of the first object acquired from the network via the communication processing unit as a second image. When,
A display controller that displays the second image in the viewing direction;
A line-of-sight sensor that detects the gazing point of the user,
A control unit for controlling the operation of the components of the information display terminal,
The control unit is
Causing the image processing unit to generate a predetermined mark image when the related information of the first object is acquired from the network,
Controlling the display control unit to superimpose and display the predetermined mark image on a part of the first object from which the related information is acquired;
It is determined whether the gazing point of the user detected by the line-of-sight sensor has been present for a predetermined time or more at a position overlapping the first object,
If it is determined that it exists, the display control unit is controlled so as to display the second image instead of the predetermined mark image that is superimposed and displayed on a part of the first object,
An information display terminal, characterized in that the display control unit is controlled so that the display of the second image is continued while the gazing point of the user exists in a range overlapping with the second image.
請求項1に記載の情報表示端末において、
前記制御部は、
前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳してなされるよう前記表示制御部を制御する
ことを特徴とする情報表示端末。
The information display terminal according to claim 1,
The control unit is
The information display terminal, wherein the display control unit controls the display of the second image so as to be superimposed on a part of the first object.
使用者の視野方向に情報を表示する情報表示方法であって、
前記視野方向を撮像し、
撮像して得た第1の画像から第1のオブジェクトを検出し、
該第1のオブジェクトに係る関連情報をネットワークから取得し、
前記ネットワークから前記第1のオブジェクトの関連情報を取得した場合に所定のマーク画像を生成し、
前記所定のマーク画像を、前記関連情報が取得された第1のオブジェクトの一部に重畳表示し、
前記関連情報に係る第2の画像を生成し、
前記使用者の注視点を検出し、
前記使用者の注視点が前記第1のオブジェクトに重なる位置に所定時間以上存在したかを判定し、
存在したと判定した場合には、前記第1のオブジェクトの一部に重畳表示されていた前記所定のマーク画像に代えて前記第2の画像を表示し、
前記使用者の注視点が前記第2の画像に重なる範囲に存在する間は、前記第2の画像の表示を継続する
ことを特徴とする情報表示方法。
A method for displaying information in the direction of the user's field of view,
Image the viewing direction,
Detecting the first object from the first image obtained by imaging,
Acquiring related information about the first object from the network,
Generating a predetermined mark image when the related information of the first object is acquired from the network,
The predetermined mark image is displayed by being superimposed on a part of the first object from which the related information is acquired,
Generate a second image relating to the relevant information,
Detecting the user's gazing point,
It is determined whether or not the user's gazing point exists at a position overlapping the first object for a predetermined time or more,
When it is determined that the second image is present, the second image is displayed in place of the predetermined mark image that is superimposed and displayed on a part of the first object,
The information display method, wherein the display of the second image is continued while the gazing point of the user exists in a range overlapping with the second image.
請求項3に記載の情報表示方法において、
前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳して行う
ことを特徴とする情報表示方法。
In the information display method according to claim 3,
The information display method, wherein the display of the second image is performed by being superimposed on a part of the first object.
JP2018052754A 2018-03-20 2018-03-20 Information display terminal and information display method Active JP6714632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018052754A JP6714632B2 (en) 2018-03-20 2018-03-20 Information display terminal and information display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018052754A JP6714632B2 (en) 2018-03-20 2018-03-20 Information display terminal and information display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015557613A Division JP6312712B2 (en) 2014-01-15 2014-01-15 Information display terminal, information display system, and information display method

Publications (3)

Publication Number Publication Date
JP2018112753A JP2018112753A (en) 2018-07-19
JP2018112753A5 JP2018112753A5 (en) 2018-08-30
JP6714632B2 true JP6714632B2 (en) 2020-06-24

Family

ID=62912124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018052754A Active JP6714632B2 (en) 2018-03-20 2018-03-20 Information display terminal and information display method

Country Status (1)

Country Link
JP (1) JP6714632B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6950644B2 (en) * 2018-08-10 2021-10-13 日本電信電話株式会社 Attention target estimation device and attention target estimation method
US20200082576A1 (en) 2018-09-11 2020-03-12 Apple Inc. Method, Device, and System for Delivering Recommendations
WO2023187866A1 (en) * 2022-03-28 2023-10-05 日本電気株式会社 Product search device, product search method, and recording medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method, image processor
JP4875843B2 (en) * 2004-10-20 2012-02-15 オリンパス株式会社 Information terminal equipment
JP5195537B2 (en) * 2009-03-09 2013-05-08 ブラザー工業株式会社 Head mounted display
JP2011166589A (en) * 2010-02-12 2011-08-25 Aplix Corp Portable terminal and information presentation method
JP5844288B2 (en) * 2011-02-01 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Function expansion device, function expansion method, function expansion program, and integrated circuit
JP6056178B2 (en) * 2012-04-11 2017-01-11 ソニー株式会社 Information processing apparatus, display control method, and program

Also Published As

Publication number Publication date
JP2018112753A (en) 2018-07-19

Similar Documents

Publication Publication Date Title
JP6312712B2 (en) Information display terminal, information display system, and information display method
CN104115100B (en) Head mounted display, the program for controlling head mounted display and the method for controlling head mounted display
JP5870929B2 (en) Information processing system, information processing apparatus, and information processing method
JP5743416B2 (en) Information processing apparatus, information processing method, and program
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
JP6714632B2 (en) Information display terminal and information display method
CN107390863B (en) Device control method and device, electronic device and storage medium
CN108681399B (en) Equipment control method, device, control equipment and storage medium
US20150379360A1 (en) Eyewear-type terminal and method for controlling the same
US11487354B2 (en) Information processing apparatus, information processing method, and program
KR20150079804A (en) Image processing method and apparatus, and terminal device
US10579109B2 (en) Control device and control method
KR20200144196A (en) Electronic device and method for providing function using corneal image thereof
JP2023517380A (en) Eye tracking calibration method and device
JP5651639B2 (en) Information processing apparatus, information display apparatus, information processing method, and program
JP7078568B2 (en) Display device, display control method, and display system
JP5989725B2 (en) Electronic device and information display program
US20190364256A1 (en) Method and System for Dynamically Generating Scene-Based Display Content on a Wearable Heads-Up Display
JP2020177534A (en) Transmission type wearable terminal
RU2818028C1 (en) Method and device for calibration in oculography
JP7390891B2 (en) Client device, server, program, and information processing method
KR20220137282A (en) Method and apparatus for controlling eye gaze communication
JP2015225379A (en) Article information providing device, article information providing system, article information providing method and article information providing program
CN116998146A (en) Camera device and camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200605

R150 Certificate of patent or registration of utility model

Ref document number: 6714632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250