JP6714632B2 - Information display terminal and information display method - Google Patents
Information display terminal and information display method Download PDFInfo
- Publication number
- JP6714632B2 JP6714632B2 JP2018052754A JP2018052754A JP6714632B2 JP 6714632 B2 JP6714632 B2 JP 6714632B2 JP 2018052754 A JP2018052754 A JP 2018052754A JP 2018052754 A JP2018052754 A JP 2018052754A JP 6714632 B2 JP6714632 B2 JP 6714632B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- display
- user
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000012545 processing Methods 0.000 claims description 33
- 238000003384 imaging method Methods 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報表示端末及び情報表示方法に関する。 The present invention relates to an information display terminal and an information display method.
ゴーグル型や眼鏡型のヘッドマウントディスプレイを用いて所定の情報を表示する、いわゆるウェアラブルな情報表示端末に関する情報表示方法について、各種方法が提案されている。 Various methods have been proposed as information display methods for so-called wearable information display terminals that display predetermined information using a goggle-type or eyeglass-type head-mounted display.
例えば特許文献1では、ユーザの状況に応じて、情報の表示モードを要約モードと詳細モードで切り替える方法が記載されている。また例えば特許文献2では、現在位置または対象物(オブジェクト)情報により特定された実世界の状況に対して、入力手段を介してユーザにより付与される情報を、撮像手段により撮像された情報と合成して表示する方法が記載されている。
For example,
眼鏡型等のウェアラブルな情報表示端末がスマートフォン等の携帯端末に対して異なるのは、所定の情報を取得する際に、携帯端末ではユーザが能動的に携帯端末による表示内容を見に行かなければならないのに対し、ウェアラブルな情報表示端末では、動作状態であればユーザは視野内で受動的に情報表示を確認できる点である。しかしながら前記ウェアラブルな情報表示端末では、情報の表示はユーザの意思とは無関係に開始と終了がなされるため、特に必要としていない場合でも情報の表示が行われるなど、状況によってはユーザが煩わしく感じる場合がある。 Wearable information display terminals such as eyeglasses are different from mobile terminals such as smartphones in that when a user acquires predetermined information, the user must actively see the contents displayed by the mobile terminal on the mobile terminal. On the other hand, in a wearable information display terminal, the user can passively check the information display in the field of view in the operating state. However, in the wearable information display terminal, since the display of information is started and ended regardless of the user's intention, the information is displayed even when it is not particularly necessary. There is.
上記特許文献1に記載の従来技術は、ユーザが歩行中か否か、表示映像を注視中か否か、あるいは発話中か否か等の状況に応じて情報の表示モードを切り替えるものであるが、ユーザが任意のオブジェクトに関する情報を表示して欲しいタイミングかどうかをどのように判断して、当該オブジェクトに関する情報の表示をどのように開始あるいは終了するかということについては、特に考慮されていなかった。
The conventional technique described in
また上記特許文献2に記載の従来技術は、ユーザにより付与されるオブジェクトに関する情報を、撮像手段により撮像された情報と合成して表示するものであるが、同様に当該オブジェクトに関する情報の表示をどのように有効なタイミングで開始あるいは終了するかということについては、特に考慮されていなかった。 Further, the prior art described in the above-mentioned Patent Document 2 displays the information about the object given by the user by combining it with the information captured by the image capturing means. No particular consideration was given to whether to start or end at an effective timing.
本発明はこれらの課題に鑑みてなされたものであって、ウェアラブルな情報表示端末等において、オブジェクトに関する情報の表示を適時に開始あるいは終了するとともに、ユーザが認識しやすい形式で前記情報を表示する情報表示端末及び情報表示方法を提供することを目的とする。 The present invention has been made in view of these problems, and in a wearable information display terminal or the like, display of information regarding an object is started or ended in a timely manner, and the information is displayed in a format that is easily recognized by the user. An object is to provide an information display terminal and an information display method.
上記課題は、例えば特許請求の範囲に記載の発明により達成される。 The above object can be achieved by, for example, the invention described in the claims.
本発明によれば、オブジェクトに関する情報の表示を適時に開始あるいは終了することができ、またユーザが認識しやすい形式で情報を表示でき、例えばウェアラブルな情報表示端末におけるユーザの利便性を向上させることができるという効果がある。 ADVANTAGE OF THE INVENTION According to this invention, the display of the information regarding an object can be started or ended in a timely manner, and information can be displayed in a format which a user can easily recognize, for example, improving a user's convenience in a wearable information display terminal. There is an effect that can be.
以下、図面を用いて本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、情報表示端末101の構成の一例を示すブロック図である。これを用いて第1の実施形態を説明する。
FIG. 1 is a block diagram showing an example of the configuration of the
101は情報表示端末、102は情報表示端末101全体を制御する制御部、103は撮像部、104は画像処理部、105は表示制御部、106はマイクやイヤホンに相当する音声入出力部、107は音声処理部、108は通信処理部、109は通信入出力部、110はGPS(Gloval Positioning System)をはじめとする位置検出部、111はセンサ入出力部、112は各種のセンサである。
通信入出力部109はネットワークと無線通信により接続される。本実施形態では情報表示端末101が直接インターネット等に接続されて情報を取得する場合について説明する。但し、Bluetooth(登録商標)等の近距離無線通信により、別な装置である情報端末(スマートフォン等)と通信を行い、インターネット等との接続と主な処理を前記情報端末が行うような構成としてもよい。
The communication input/
情報表示端末101は少なくとも撮像部103及び表示制御部105を備えたヘッドマウントディスプレイである。各種センサ112としては、傾斜センサや加速度センサなどユーザの体勢や動きを検出するもの、視線センサや温度センサなどユーザの身体状態を検出するもの、感圧センサや静電容量センサなどユーザの指示入力を検知する入出力I/Fとして用いられるものをはじめとする、複数のセンサを搭載可能である。
The
図2は、情報表示端末101をユーザが装着した場合の一例を示す見取図である。図1と共通する構成要素には同一の符号を付してある。
FIG. 2 is a sketch drawing showing an example when the user wears the
201はユーザ、202は撮像部103で撮影される第1の画像の領域を模式的に示し、203は表示制御部105により表示される第2の画像の領域を模式的に示したものである。なお前記第2の画像の領域は203で示したサイズあるいは範囲に限定されるものではなく、視野を広くカバーするものであってもよい。また情報表示端末101の形態は、頭部に装着され、ユーザ201の視野内に例えば情報に応じた光を投射して情報を表示する表示制御部105と、ユーザ201の視野方向を撮像可能な撮像部103が配置されるものであれば良い。例えば眼鏡型、ゴーグル型、片目にかかるもの、両目にかかるもの等であって良く、図2に一例として示すような形に限定されるものではない。
撮像部103で撮像された領域202の第1の画像は、画像処理部104で解析され、そこに含まれる所定のオブジェクトが検出される。検出された該オブジェクトの特徴を表す情報、例えば後記するパターンに係る特徴を表す情報を、通信処理部108を介してネットワークに送信し、これに応じてネットワークより取得された前記オブジェクトに関する情報は、画像処理部104に供給される。画像処理部104は該情報に基づいて前記第2の画像を生成し、表示制御部105に供給する。表示制御部105は前記第2の画像を領域203に表示する。
The first image of the
表示制御部105は、例えば領域203に相当する位置に設けたハーフミラーに画像を表示し、或いはユーザ201の網膜上に直接第2の画像を投影して表示するが、少なくともヘッドマウントディスプレイとして透過型であり、第2の画像を表示しない場合には、領域203がユーザ201の視野を隠蔽しないものとする。
The
図3は、第1の実施形態における動作フロー図である図4Aと図4Bは、第1の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。 FIG. 3 is an operation flow diagram in the first embodiment. FIGS. 4A and 4B are diagrams showing an example of related information display in the first embodiment, showing a user's visual field.
図3、図4A、図4Bを用いて、本実施形態における情報表示端末101の動作について詳細に説明する。本実施形態では、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトに関する関連情報を第2の画像として表示する場合について説明する。
The operation of the
まずステップ301で処理を開始する。全体の処理開始は、センサ112における感圧センサ等のタッチ入力や、音声入出力部106からのユーザの音声入力によってもよい。また、位置検出部110で検出された位置情報、あるいは撮像部103により撮像された画像を基にユーザが特定の店舗内に居ることを認識して、自動的に行うようにしてもよい。
First, in
次にステップ302で所定オブジェクトの検出を行う。具体的には撮像部103で継続的に撮像された画像に対して、画像処理部104が画像認識を行い、切り出された複数のオブジェクトが所定パターンの形状、色、あるいはその変形予測値とのマッチングを取られる等して、所定オブジェクトが検出される。前記所定パターンは、店舗情報に応じたデフォルトのパターン(例えば「洋服」等のジャンル)であってもよいし、当該パターンを店舗情報に関連付けてインターネット等から取得するようにしてもよい。
Next, in
またユーザが所望の商品が決まっている場合は、予め商品名、型番、ジャンル等を指定して、インターネット上のサーバやその他の公開情報から所定パターンを取得し、より具体的な所定オブジェクト検出を行うことも可能である。なおステップ302において検出される所定オブジェクトは単一とは限らず、撮像領域内で同時に複数検出される場合もある。
In addition, when the user has decided on a desired product, the product name, model number, genre, etc. are designated in advance, and a predetermined pattern is acquired from a server on the Internet or other public information to detect a more specific predetermined object. It is also possible to do so. The predetermined object detected in
所定オブジェクトが検出されると、ステップ303において当該所定オブジェクトについての関連情報が取得される。具体的には通信処理部108により、前記所定オブジェクトに関する情報がインターネット等から通信入出力部109を介して取得される。撮像部103により撮像された所定オブジェクトの画像から、商品タグ等により商品名、型番等が確定できる場合には、それらに基づき関連情報を取得することも可能である。
When the predetermined object is detected, related information about the predetermined object is acquired in
続いてステップ304で表示トリガーの判定が行われる。表示トリガーとは、関連情報に基づく前記第2の画像の表示を開始するための特定のオブジェクトであり、この場合は「手」を表示トリガーとしている。ステップ302で所定オブジェクトが検出され、ステップ303で当該所定オブジェクトの関連情報が取得されていても、前記表示トリガーが撮像部103で撮像され画像処理部104で認識されない限り、前記第2の画像の表示は行わない。なお、画像表示部104が「手」を認識する方法は、ステップ302におけるオブジェクトの認識と同様な方法である。
Then, in
例えば図4Aで示すように、撮像領域401の中で402から405がそれぞれ所定オブジェクトとして検出されていても、表示トリガーが撮像領域401内に存在しないため、前記第2の画像の表示は行わない(ステップ304のNo)。
For example, as shown in FIG. 4A, even if 402 to 405 are detected as the predetermined objects in the
一方図4Bで示すように、表示トリガーである特定オブジェクト407が撮像領域401内に認識され、所定オブジェクトに近接していると判断されると(ステップ304のYes)、ステップ305において、特定された所定オブジェクト402の関連情報に基づいた前記第2の画像が、画像処理部104にて生成される。さらに前記第2の画像は、所定オブジェクト402に関連する情報として認識できる形で、表示制御部105により表示される。
On the other hand, as shown in FIG. 4B, when the
第2の画像406として表示される内容は、この場合所定オブジェクト402に関する商品情報である。ここでは当該商品に関する口コミ情報や価格相場情報などが、ユーザに認識されやすい形式で表示されている。なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域401の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。
In this case, the content displayed as the
ステップ306において、前記表示トリガーの判定が継続的に行われ、表示トリガーが認識されている間は前記関連情報の表示を行う。なお表示トリガーの位置が変更され、所定オブジェクトが変更になった場合は、変更後の所定オブジェクトに関する第2の画像に切り替えるようにする(ステップ306のYes)。また表示トリガーである特定オブジェクト407が撮像領域401の中で認識できなくなった場合は、ステップ307において前記第2の画像の表示を終了し、再びステップ302の所定オブジェクトの検出に戻る(ステップ306のNo)。
In
図5は、ネットワーク上のシステム構成を示すブロック図である。通信処理部108を介した前記関連情報の取得について、図5を用いて簡単に説明する。
FIG. 5 is a block diagram showing a system configuration on the network. Acquisition of the related information via the
情報表示端末101は、前述の構成によりインターネット501から所定オブジェクト402の関連情報を取得する。当該情報は不特定な第三者により、例えばパーソナルコンピュータ502、携帯端末503、情報表示端末504などを用いてインターネット501を介して送信され、例えばサーバ505によりストレージ506に蓄積される。情報表示端末101は、撮像部103が撮像した画像から検出した所定オブジェクト402を識別する情報を送信し、サーバ505はストレージ506に蓄積された情報の中から、所定オブジェクト402に関連する情報を情報表示端末101に対して提供する。
The
なおサーバ505は予め所定の店舗、所定の地域等について情報を集約し、情報表示端末向けに情報提供を行う。逆に特定のサーバ505が関連情報を集約していない場合は、インターネットに接続された複数のサーバが公開している情報から、情報表示端末101が所定オブジェクト402に関連する情報を検索して取得することもできる。
The
以上のように本発明の第1の実施形態によれば、ウェアラブルな情報表示端末において、所定オブジェクトの関連情報について、例えば手をオブジェクトに近づけるという表示トリガーを用いて前記第2の画像の表示開始あるいは終了を行う。これにより、ユーザの意思あるいは行動(例えば商品を手に取る=商品に関連する情報を見たい)を反映したタイミング及び期間に前記第2の画像の表示を行うことが可能となる。ユーザは情報表示端末を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上する。また不要なタイミングで前記第2の画像が表示され、あるいは複数のオブジェクトに対する情報が同時に表示されるようなことがなくなるため、ユーザにとって煩わしい表示となることを回避できるという効果がある。
As described above, according to the first embodiment of the present invention, in the wearable information display terminal, regarding the related information of the predetermined object, the display start of the second image is started by using the display trigger of bringing the hand close to the object, for example. Alternatively, it ends. As a result, it is possible to display the second image at a timing and a period in which the user's intention or action (for example, picking up a product = wanting to see information related to a product) is reflected. The user can freely use both hands while wearing the information display terminal, and there is no need to operate the
次に、情報表示端末101の第2の実施形態を、図6から図8Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また第1の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示する場合について説明する。
Next, a second embodiment of the
図6は、第2の実施形態における動作フロー図である。 FIG. 6 is an operation flow chart in the second embodiment.
図7は、表示トリガー登録時の表示例を示す図である。 FIG. 7 is a diagram showing a display example when a display trigger is registered.
本実施形態において特徴的となるのは、ユーザが前述の表示トリガーを登録できるようにしている点である。図6は表示トリガー登録時の動作フローを示しており、図7は表示トリガー登録時のユーザの視野を示している。 The feature of this embodiment is that the user can register the above-mentioned display trigger. FIG. 6 shows an operation flow when registering a display trigger, and FIG. 7 shows a field of view of a user when registering a display trigger.
まずステップ601で処理を開始する。処理開始としては、感圧センサ等のタッチ入力や音声入力によるユーザ指示により行うことができる。次にステップ602において、表示トリガーを登録するための枠を表示する。具体的には画像処理部104が登録枠を表す画像を生成し、表示制御部105が図7のように撮像部103の撮像領域701の範囲内、即ちユーザの視野方向に登録枠702を表示する。
First, in step 601, the process is started. The process can be started by a user input by touch input or voice input of a pressure sensor or the like. Next, in step 602, a frame for registering a display trigger is displayed. Specifically, the image processing unit 104 generates an image representing the registration frame, and the
ステップ603において、ユーザは表示トリガーとして登録したい特定オブジェクトを、登録枠702に収まるように位置させる。この場合は「手のひら」を特定オブジェクト703としている。続いてステップ604において、撮像部103で撮像された画像から、画像処理部104が登録枠702の範囲内に特定オブジェクト703が存在すると認識すると、当該オブジェクトを表示トリガーとして登録するか否かをユーザに問合せる。ユーザへの問合せは、図7に示すように文字の表示で行ってもよいし、音声入出力部106からの音声出力により行ってもよい。
In step 603, the user positions the specific object to be registered as the display trigger so as to fit in the
ユーザの指示入力により登録指示がなされると(ステップ604のYes)、特定オブジェクト703が表示トリガーとして情報表示端末101内のメモリ(図示せず)に記憶される。なお、該メモリは制御部102又は画像処理部104からアクセスできるように設けられるか、これらが内蔵しても良い。その後ステップ606において処理を終了する。なおステップ604で画像処理部104が特定オブジェクト703の存在を認識した段階で、特定オブジェクト703の輪郭を表す画像を生成し表示制御部105が表示するとともに、音声入出力部106から音声を出力し、ユーザに特定オブジェクト703が認識されたことを通知することも可能である。
When the registration instruction is given by the user's instruction input (Yes in step 604), the
図8Aと図8Bは、第2の実施形態における関連情報表示の一例を示す図である。ここで第1の実施形態の場合と同様に、ユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について、図8Aと図8Bを用いて説明する。ここでは、ステップ605で特定オブジェクト703として、「手のひら」が登録されたものとする。
8A and 8B are diagrams illustrating an example of related information display according to the second embodiment. Here, as in the case of the first embodiment, in the case where the
動作フローは基本的に図3の場合と同様であるので、詳細な説明は省略する。前述のステップ304の表示トリガーの判定において、図8Aに示すように撮像領域801内に所定オブジェクト802が存在し、関連情報がインターネット等から取得されているが、特定オブジェクト803は「手の甲」であり、登録された表示トリガーとして認識されないため、関連情報の表示は行われない。登録された表示トリガーとの一致判定は、画像処理部104においてオブジェクトの形状、色、あるいはそれらの変形予測値等とのマッチングが取られる等して判断される。図8Bでは特定オブジェクト804は「手のひら」であり、図6のステップ605で登録済の表示トリガーとして判断される。
Since the operation flow is basically the same as that in the case of FIG. 3, detailed description will be omitted. In the determination of the display trigger in
さらに、ステップ305において、表示トリガーにより特定された所定オブジェクト802の関連情報が、画像処理部104にて第2の画像805として生成される。さらに前記第2の画像805は、所定オブジェクト802に関連する情報として認識できる形で、表示制御部105により表示される。
Further, in
前述と同様に、第2の画像805として表示される内容は、所定オブジェクト802に関する商品情報としてユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域701及び801の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。
Similar to the above, the content displayed as the
以上のように本発明の第2の実施形態によれば、ウェアラブルな情報表示端末において、特定のオブジェクトを表示トリガーとして登録することにより、ユーザの意図に応じた前記第2の画像の表示開始あるいは終了を行うことができる。実施形態1の場合と同様に、ユーザは情報表示端末を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなく、またユーザの要望に応じて適宜表示トリガーを変えることが可能となるため、利便性が向上する。
As described above, according to the second embodiment of the present invention, in the wearable information display terminal, by registering a specific object as a display trigger, display start of the second image according to the user's intention or The termination can be done. As in the case of the first embodiment, the user can freely use both hands while wearing the information display terminal, there is no need to operate the
本実施形態の変形例として、図3のステップ301における処理開始を、登録された表示トリガーにより行う実施形態が考えられる。つまり情報表示端末101の動作として、まずステップ301で継続して表示トリガーの判定のみを行う。そして、撮像部103で撮像された画像から、画像認識部104において認識されたオブジェクトが、登録された表示トリガーと一致すると判定された場合に、ステップ302以降の動作を行う実施形態である。本実施形態の例では、撮像領域401に「手のひら」を示すことで一連の動作を行わせることができる。動作の開始が簡単になるため、更にユーザの利便性を向上することができるという効果がある。
As a modified example of the present embodiment, an embodiment in which the processing start in
次に情報表示端末101の第3の実施形態を、図9、図10Aと図10Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また本実施形態でも前述の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明する。
Next, a third embodiment of the
図9は、第3の実施形態における動作フロー図である。 FIG. 9 is an operation flow chart in the third embodiment.
図10Aと図10Bは、第3の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。 FIG. 10A and FIG. 10B are diagrams showing an example of related information display in the third embodiment, and show the field of view of the user.
ステップ901からステップ903の動作については、前述の図3におけるステップ301からステップ303の動作と同様であり、詳細な説明は省略する。ステップ901で処理を開始すると、ステップ902で所定オブジェクトを検出し、ステップ903で前記所定オブジェクトに関する関連情報がインターネット等から取得される。なおステップ902において検出される所定オブジェクトは単一とは限らず、撮像領域内で同時に複数検出される場合もある。
The operations of steps 901 to 903 are the same as the operations of
続いてステップ904でユーザの視線判定が行われる。情報表示端末101を装着したユーザの視線は、センサ112に含まれる視線センサにより、その注視点が検出される。視線センサについては、例えば前述の特許文献1に記載の赤外線を利用した方法、CMOS(ComplementaryMetal−Oxide Semiconductor)センサを利用した方法等が知られている。注視点が前記検出した所定オブジェクトにかかる範囲にない場合(ステップ904のNo)、前記関連情報に係る第2の画像の表示は行わない。例えば図10Aで示すように、撮像領域1001の中で1002から1005がそれぞれ所定オブジェクトとして検出されていても、注視点1006がいずれかの所定オブジェクトにもかからない場合は、関連情報に係る第2の画像の表示は行わない。
Subsequently, in
一方、図10Bのように、注視点1006が所定オブジェクト1002にかかった場合、その状態が所定時間(例えば3秒)以上継続した場合は(ステップ904のYes)、ステップ905において、当該所定オブジェクト1002の関連情報が、画像処理部104にて第2の画像1007として生成され、所定オブジェクト1002に関連する情報として認識できる形で、表示制御部105により表示される。第2の画像1007として表示される内容は、前述の実施例と同様に、所定オブジェクト1002に関する商品情報であり、当該商品に関する口コミ情報や価格相場情報などを、ユーザが認識しやすい形式で表示している。
On the other hand, as shown in FIG. 10B, when the
なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域1001の破線及び注視点1006のマークは、便宜上示しているのみであり、ユーザの視野内に表示されるものではない。ただし注視点1006のマークについては、画像として表示するモードを設けてユーザが認識できるようにすることも可能であり、その場合マークの形状は注視点1006の形状に限定されない。
Note that the displayed content may be any information useful to the user, and is not particularly limited. Further, the broken line of the
ステップ906において、視線判定を継続的に行い、注視点1006が所定オブジェクト1002あるいは第2の画像1007にかかる範囲にある間は、第2の画像1007を表示する(ステップ906のYes)。これは第2の画像1007が表示された時点で、注視点1006は第2の画像1007側に移動するためである。また注視点1006が所定オブジェクト1002あるいは第2の画像1007にかかる範囲から外れた場合、または外れて所定時間(例えば3秒)以上継続した場合は、第2の画像1007の表示を終了し(ステップ906のNo)、再びステップ902の所定オブジェクトの検出に戻る。
In
以上のように第3の実施形態によれば、ウェアラブルな情報表示端末101において、所定オブジェクトの関連情報について、ユーザの注視点に応じて第2の画像の表示開始あるいは終了を行うことにより、ユーザの意思あるいは行動(例えば商品に注目している=商品に関連する情報を見たい)を反映したタイミング及び期間に画像の表示を行うことが可能となる。前述の実施形態の場合と同様に、ユーザは情報表示端末101を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上する。また不要なタイミングで第2の画像が表示される、あるいは複数のオブジェクトに対する情報が同時に表示されるようなことがなくなるため、ユーザにとって煩わしい表示となることを回避できるという効果がある。
As described above, according to the third embodiment, in the wearable
次に情報表示端末101の第4の実施形態を、図11、図12Aと図12Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また本実施形態でも前述の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明する。
Next, a fourth embodiment of the
図11は、第4の実施形態における動作フロー図である。 FIG. 11 is an operation flow chart in the fourth embodiment.
図12Aと図12Bは、第4の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。 FIG. 12A and FIG. 12B are diagrams showing an example of related information display in the fourth embodiment, and show the field of view of the user.
ステップ1101からステップ1103の動作については、前述の図3におけるステップ301からステップ303の動作と同様であり、詳細な説明は省略する。ステップ1101で処理を開始すると、ステップ1102で所定オブジェクトを検出し、ステップ1103で前記所定オブジェクトに関する関連情報がインターネット等から取得される。なお本実施形態では、ステップ1102において撮像領域内で同時に複数の所定オブジェクトが検出される場合について説明する。
The operations from
複数の所定オブジェクトが検出され関連情報が取得されると、ステップ1104において候補マークの表示が行われる。候補マークとは、検出された所定オブジェクトで関連情報として有効なものを取得できた場合に表示されるマークのことである。例えば図12Aは、ステップ1102において撮像領域1201内で1202から1205が所定オブジェクトとして検出され、ステップ1103において1202、1204、1205について有効な関連情報が取得できた場合を示している。1206から1208が候補マークであり、画像処理部104により画像として生成され、表示制御部105により該当する所定オブジェクトの一部に重畳するように表示される。なお候補マークは、ユーザが認識できる程度の大きさで、どの所定オブジェクトに関連するものかを判別できるものであれば、その形状は図12Aに示すものに限定されない。
When a plurality of predetermined objects are detected and the related information is acquired, candidate marks are displayed in
続いてステップ1105で表示トリガーの判定が行われる。この場合前述の実施例と同様に「手」を表示トリガーとしている。図12Aでは、撮像領域1201の中で表示トリガーが存在しないため、候補マーク1206、1207、1208のみが表示されており、各所定オブジェクトの関連情報に係る第2の画像の表示は行われない。
Then, in
一方図12Bのように、表示トリガーである特定オブジェクト1209が撮像領域1201内に認識され、所定オブジェクト1202に近接していると判断されると、ステップ1106において、表示トリガーにより特定された所定オブジェクト1202の関連情報が、画像処理部104にて第2の画像1210として生成され、候補マーク1206に代わるものとして、表示制御部105により表示される。
On the other hand, as shown in FIG. 12B, when the
この場合、所定オブジェクト1202は他のオブジェクト1203乃至1205に近接している。このため、第2の画像1210は所定オブジェクト1202の一部と重畳するように表示される。これにより、第2の画像1210が、どのオブジェクトに係る表示であるかを明確にしている。なお、他の実施形態においても、第2の画像がどのオブジェクトに係る画像であるかを明確にするためには、前記第2の画像を関連するオブジェクトと一部が重畳するように表示すると良い。
In this case, the
第2の画像1210として表示される内容は、前述の実施形態と同様に、所定オブジェクト1202に関する商品情報であり、当該商品に関する口コミ情報や価格相場情報などを、ユーザが認識しやすい形式で表示している。なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また候補マーク1207及び1208は、該当オブジェクトが選択されていない状態なので、継続的に候補マークのまま表示される。なお撮像領域1201の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。
The content displayed as the
ステップ1107において、前記表示トリガーの判定が継続的に行われ、表示トリガーが認識されている間は前記関連情報の表示を行う(ステップ1107のYes)。なお表示トリガーの位置が変更され、表示トリガーに近接する所定オブジェクトが変更になった場合は、変更後の所定オブジェクトについての候補マークを関連情報に係る第2の画像の表示に切り替えるようにする。また変更前の所定オブジェクトについては、関連情報に係る第2の画像から候補マーク表示に再び切り替えるようにする。表示トリガーである特定オブジェクト1209が撮像領域1201の中で認識できなくなった場合は(ステップ1107のNo)、ステップ1108において前記関連情報に係る第2の画像表示を終了し、ステップ1102の所定オブジェクトの検出に戻る。ただし撮像領域1201内で表示済の候補マークについては、表示を継続する。
In
以上のように第4の実施形態によれば、ウェアラブルな情報表示端末101において、所定オブジェクトの関連情報表示に先立って候補マークを表示することにより、ユーザは予め関連情報を表示可能なオブジェクトがどれなのかを認識することが可能となる。関連情報自体については、表示トリガーを用いて第2の画像の表示開始あるいは終了を行うので、ユーザの意思あるいは行動を反映したタイミング及び期間に第2の画像の表示を行うことが可能である。ユーザは情報表示端末101を装着した状態で両手を自由に使うことが可能であり、どのオブジェクトについて関連情報が表示可能かを認識しながら第2の画像の表示を行うことができる。さらに、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上するという効果がある。
As described above, according to the fourth embodiment, by displaying the candidate mark on the wearable
本実施形態の変形例として、図12Aにおける候補マーク1206から1208の大きさあるいは色を、該当する関連情報の内容の有効性により差を付ける実施形態が考えられる。候補マークを表示する時点で各関連情報は取得済なので、例えば付加情報の量が多い場合、または事前にユーザが指定した商品である場合等に、表示マークを大きくする、あるいは赤色系の枠にする。これにより、さらにユーザが事前に認識しやすいものとすることが可能である。 As a modified example of this embodiment, an embodiment in which the sizes or colors of the candidate marks 1206 to 1208 in FIG. 12A are made different according to the validity of the content of the relevant information concerned can be considered. Since each related information has been acquired at the time of displaying the candidate mark, for example, when the amount of additional information is large, or when the product is specified by the user in advance, the display mark is enlarged or the red frame is displayed. To do. This makes it easier for the user to recognize in advance.
なお本実施形態では、候補マークを表示する動作について、第1の実施形態に組み合わせるような場合について説明したが、その他の実施形態に組み合わせて実施することも可能である。 In the present embodiment, the operation of displaying the candidate mark has been described as being combined with the first embodiment, but the operation may be combined with other embodiments.
以上説明した全ての実施形態において、特にユーザが店舗内、特に衣料品店で商品を物色している場合に、情報表示端末が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明してきた。しかし、適用場面はこれに限定されるものではなく、その他のカテゴリの店舗や、屋外での情報表示などに適用することも可能である。また表示トリガーとして主に「手」を用いる場合について説明したが、その他のものを指定して表示トリガーとすることができる。 In all of the embodiments described above, in the case where the information display terminal displays the related information as the second image for a predetermined object, especially when the user is looking for the product in the store, particularly in the clothing store. Has been explained. However, the application scene is not limited to this, and the invention can be applied to stores in other categories, information display outdoors, and the like. Further, although the case where the “hand” is mainly used as the display trigger has been described, other ones can be designated and used as the display trigger.
また本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。さらに上記の各機能、処理部等は、それらの一部又は全部をハードウェアで実現しても良いし、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することによりソフトウェアで実現してもよい。なお制御線や情報線は説明上必要と考えられるものを示しており、必ずしも全ての制御線や情報線を示しているとは限らない。 Further, the present invention is not limited to the above-described embodiment, and various modifications are included. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Further, the above-mentioned respective functions, processing units, etc. may be realized partially or entirely by hardware, or may be realized by software by the processor interpreting and executing a program for realizing each function. Good. It should be noted that the control lines and information lines shown are those that are considered necessary for explanation, and not all the control lines and information lines are shown.
101、504… 情報表示端末、102… 制御部、103… 撮像部、104… 画像処理部、105… 表示制御部、106… 音声入出力部、107… 音声処理部、108… 通信処理部、109… 通信入出力部、110…位置検出部、111… センサ入出力部、112… 各種センサ、201… ユーザ、202、401、701、801、1001、1201… 撮像領域、203… 画像領域、402、802、1002、1202… 所定オブジェクト、406、805、1007、1210… 関連情報の画像、407、804、1209… 表示トリガー、501… インターネット、502… パーソナルコンピュータ、503… 携帯端末、505… サーバ、506… ストレージ、702… 登録枠、1006… 注視点、1206、1207、1208… 候補マーク。 101, 504... Information display terminal, 102... Control section, 103... Imaging section, 104... Image processing section, 105... Display control section, 106... Voice input/output section, 107... Voice processing section, 108... Communication processing section, 109 ... communication input/output unit, 110... position detection unit, 111... sensor input/output unit, 112... various sensors, 201... user, 202, 401, 701, 801, 1001, 1201... imaging region, 203... image region, 402, 802, 1002, 1202... Predetermined object, 406, 805, 1007, 1210... Related information image, 407, 804, 1209... Display trigger, 501... Internet, 502... Personal computer, 503... Mobile terminal, 505... Server, 506 ... Storage, 702... Registration frame, 1006... Gaze point, 1206, 1207, 1208... Candidate mark.
Claims (4)
ネットワークから情報を取得するための通信を行う通信処理部と、
前記視野方向を撮像する撮像部と、
前記撮像部が撮像した第1の画像から第1のオブジェクトを検出し、前記通信処理部を介して前記ネットワークから取得した前記第1のオブジェクトの関連情報を第2の画像として生成する画像処理部と、
前記第2の画像を前記視野方向に表示する表示制御部と、
前記使用者の注視点を検出する視線センサと、
前記情報表示端末の構成要素の動作を制御する制御部と
を有し、
前記制御部は、
前記ネットワークから前記第1のオブジェクトの関連情報を取得した場合に前記画像処理部に所定のマーク画像を生成させ、
前記所定のマーク画像を、前記関連情報が取得された第1のオブジェクトの一部に重畳表示するよう前記表示制御部を制御し、
前記視線センサが検出した前記使用者の注視点が前記第1のオブジェクトに重なる位置に所定時間以上存在したかを判定し、
存在したと判定した場合には、前記第1のオブジェクトの一部に重畳表示されていた前記所定のマーク画像に代えて前記第2の画像を表示するよう前記表示制御部を制御し、
前記使用者の注視点が前記第2の画像に重なる範囲に存在する間は、前記第2の画像の表示を継続するよう前記表示制御部を制御する
ことを特徴とする情報表示端末。 An information display terminal for displaying information in the direction of the user's field of view,
A communication processing unit that performs communication for acquiring information from the network,
An image pickup unit for picking up the visual field direction,
An image processing unit that detects a first object from a first image captured by the image capturing unit and generates related information of the first object acquired from the network via the communication processing unit as a second image. When,
A display controller that displays the second image in the viewing direction;
A line-of-sight sensor that detects the gazing point of the user,
A control unit for controlling the operation of the components of the information display terminal,
The control unit is
Causing the image processing unit to generate a predetermined mark image when the related information of the first object is acquired from the network,
Controlling the display control unit to superimpose and display the predetermined mark image on a part of the first object from which the related information is acquired;
It is determined whether the gazing point of the user detected by the line-of-sight sensor has been present for a predetermined time or more at a position overlapping the first object,
If it is determined that it exists, the display control unit is controlled so as to display the second image instead of the predetermined mark image that is superimposed and displayed on a part of the first object,
An information display terminal, characterized in that the display control unit is controlled so that the display of the second image is continued while the gazing point of the user exists in a range overlapping with the second image.
前記制御部は、
前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳してなされるよう前記表示制御部を制御する
ことを特徴とする情報表示端末。 The information display terminal according to claim 1,
The control unit is
The information display terminal, wherein the display control unit controls the display of the second image so as to be superimposed on a part of the first object.
前記視野方向を撮像し、
撮像して得た第1の画像から第1のオブジェクトを検出し、
該第1のオブジェクトに係る関連情報をネットワークから取得し、
前記ネットワークから前記第1のオブジェクトの関連情報を取得した場合に所定のマーク画像を生成し、
前記所定のマーク画像を、前記関連情報が取得された第1のオブジェクトの一部に重畳表示し、
前記関連情報に係る第2の画像を生成し、
前記使用者の注視点を検出し、
前記使用者の注視点が前記第1のオブジェクトに重なる位置に所定時間以上存在したかを判定し、
存在したと判定した場合には、前記第1のオブジェクトの一部に重畳表示されていた前記所定のマーク画像に代えて前記第2の画像を表示し、
前記使用者の注視点が前記第2の画像に重なる範囲に存在する間は、前記第2の画像の表示を継続する
ことを特徴とする情報表示方法。 A method for displaying information in the direction of the user's field of view,
Image the viewing direction,
Detecting the first object from the first image obtained by imaging,
Acquiring related information about the first object from the network,
Generating a predetermined mark image when the related information of the first object is acquired from the network,
The predetermined mark image is displayed by being superimposed on a part of the first object from which the related information is acquired,
Generate a second image relating to the relevant information,
Detecting the user's gazing point,
It is determined whether or not the user's gazing point exists at a position overlapping the first object for a predetermined time or more,
When it is determined that the second image is present, the second image is displayed in place of the predetermined mark image that is superimposed and displayed on a part of the first object,
The information display method, wherein the display of the second image is continued while the gazing point of the user exists in a range overlapping with the second image.
前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳して行う
ことを特徴とする情報表示方法。 In the information display method according to claim 3,
The information display method, wherein the display of the second image is performed by being superimposed on a part of the first object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018052754A JP6714632B2 (en) | 2018-03-20 | 2018-03-20 | Information display terminal and information display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018052754A JP6714632B2 (en) | 2018-03-20 | 2018-03-20 | Information display terminal and information display method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015557613A Division JP6312712B2 (en) | 2014-01-15 | 2014-01-15 | Information display terminal, information display system, and information display method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018112753A JP2018112753A (en) | 2018-07-19 |
JP2018112753A5 JP2018112753A5 (en) | 2018-08-30 |
JP6714632B2 true JP6714632B2 (en) | 2020-06-24 |
Family
ID=62912124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018052754A Active JP6714632B2 (en) | 2018-03-20 | 2018-03-20 | Information display terminal and information display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6714632B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6950644B2 (en) * | 2018-08-10 | 2021-10-13 | 日本電信電話株式会社 | Attention target estimation device and attention target estimation method |
US20200082576A1 (en) | 2018-09-11 | 2020-03-12 | Apple Inc. | Method, Device, and System for Delivering Recommendations |
WO2023187866A1 (en) * | 2022-03-28 | 2023-10-05 | 日本電気株式会社 | Product search device, product search method, and recording medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005038008A (en) * | 2003-07-15 | 2005-02-10 | Canon Inc | Image processing method, image processor |
JP4875843B2 (en) * | 2004-10-20 | 2012-02-15 | オリンパス株式会社 | Information terminal equipment |
JP5195537B2 (en) * | 2009-03-09 | 2013-05-08 | ブラザー工業株式会社 | Head mounted display |
JP2011166589A (en) * | 2010-02-12 | 2011-08-25 | Aplix Corp | Portable terminal and information presentation method |
JP5844288B2 (en) * | 2011-02-01 | 2016-01-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Function expansion device, function expansion method, function expansion program, and integrated circuit |
JP6056178B2 (en) * | 2012-04-11 | 2017-01-11 | ソニー株式会社 | Information processing apparatus, display control method, and program |
-
2018
- 2018-03-20 JP JP2018052754A patent/JP6714632B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018112753A (en) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6312712B2 (en) | Information display terminal, information display system, and information display method | |
CN104115100B (en) | Head mounted display, the program for controlling head mounted display and the method for controlling head mounted display | |
JP5870929B2 (en) | Information processing system, information processing apparatus, and information processing method | |
JP5743416B2 (en) | Information processing apparatus, information processing method, and program | |
US10489981B2 (en) | Information processing device, information processing method, and program for controlling display of a virtual object | |
JP6714632B2 (en) | Information display terminal and information display method | |
CN107390863B (en) | Device control method and device, electronic device and storage medium | |
CN108681399B (en) | Equipment control method, device, control equipment and storage medium | |
US20150379360A1 (en) | Eyewear-type terminal and method for controlling the same | |
US11487354B2 (en) | Information processing apparatus, information processing method, and program | |
KR20150079804A (en) | Image processing method and apparatus, and terminal device | |
US10579109B2 (en) | Control device and control method | |
KR20200144196A (en) | Electronic device and method for providing function using corneal image thereof | |
JP2023517380A (en) | Eye tracking calibration method and device | |
JP5651639B2 (en) | Information processing apparatus, information display apparatus, information processing method, and program | |
JP7078568B2 (en) | Display device, display control method, and display system | |
JP5989725B2 (en) | Electronic device and information display program | |
US20190364256A1 (en) | Method and System for Dynamically Generating Scene-Based Display Content on a Wearable Heads-Up Display | |
JP2020177534A (en) | Transmission type wearable terminal | |
RU2818028C1 (en) | Method and device for calibration in oculography | |
JP7390891B2 (en) | Client device, server, program, and information processing method | |
KR20220137282A (en) | Method and apparatus for controlling eye gaze communication | |
JP2015225379A (en) | Article information providing device, article information providing system, article information providing method and article information providing program | |
CN116998146A (en) | Camera device and camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180611 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200519 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6714632 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |