JPWO2015107625A1 - 情報表示端末、情報表示システム及び情報表示方法 - Google Patents

情報表示端末、情報表示システム及び情報表示方法 Download PDF

Info

Publication number
JPWO2015107625A1
JPWO2015107625A1 JP2015557613A JP2015557613A JPWO2015107625A1 JP WO2015107625 A1 JPWO2015107625 A1 JP WO2015107625A1 JP 2015557613 A JP2015557613 A JP 2015557613A JP 2015557613 A JP2015557613 A JP 2015557613A JP WO2015107625 A1 JPWO2015107625 A1 JP WO2015107625A1
Authority
JP
Japan
Prior art keywords
image
information
information display
display
display terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015557613A
Other languages
English (en)
Other versions
JP6312712B2 (ja
Inventor
吉田 進
進 吉田
大内 敏
敏 大内
多田 行伸
行伸 多田
禎司 桑原
禎司 桑原
瀬尾 欣穂
欣穂 瀬尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Publication of JPWO2015107625A1 publication Critical patent/JPWO2015107625A1/ja
Application granted granted Critical
Publication of JP6312712B2 publication Critical patent/JP6312712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ウェアラブルな情報表示端末において、オブジェクトに関する情報をユーザが必要なタイミングで認識し易い形式で表示する。視野方向を撮像し、撮像して得た第1の画像から第1のオブジェクトを検出し、第1のオブジェクトに係る関連情報をネットワークから取得して、関連情報に係る第2の画像を生成する。第1の画像から第1のオブジェクトとは異なる第2のオブジェクトを検出し、前記第2のオブジェクトを表示トリガーとし、第1のオブジェクトと第2のオブジェクトが近接している場合に、第2の画像を表示する。

Description

本発明は、情報表示端末、情報表示システム及び情報表示方法に関する。
ゴーグル型や眼鏡型のヘッドマウントディスプレイを用いて所定の情報を表示する、いわゆるウェアラブルな情報表示端末に関する情報表示方法について、各種方法が提案されている。
例えば特許文献1では、ユーザの状況に応じて、情報の表示モードを要約モードと詳細モードで切り替える方法が記載されている。また例えば特許文献2では、現在位置または対象物(オブジェクト)情報により特定された実世界の状況に対して、入力手段を介してユーザにより付与される情報を、撮像手段により撮像された情報と合成して表示する方法が記載されている。
特開2007−163634号公報 特開2011−28763号公報
眼鏡型等のウェアラブルな情報表示端末がスマートフォン等の携帯端末に対して異なるのは、所定の情報を取得する際に、携帯端末ではユーザが能動的に携帯端末による表示内容を見に行かなければならないのに対し、ウェアラブルな情報表示端末では、動作状態であればユーザは視野内で受動的に情報表示を確認できる点である。しかしながら前記ウェアラブルな情報表示端末では、情報の表示はユーザの意思とは無関係に開始と終了がなされるため、特に必要としていない場合でも情報の表示が行われるなど、状況によってはユーザが煩わしく感じる場合がある。
上記特許文献1に記載の従来技術は、ユーザが歩行中か否か、表示映像を注視中か否か、あるいは発話中か否か等の状況に応じて情報の表示モードを切り替えるものであるが、ユーザが任意のオブジェクトに関する情報を表示して欲しいタイミングかどうかをどのように判断して、当該オブジェクトに関する情報の表示をどのように開始あるいは終了するかということについては、特に考慮されていなかった。
また上記特許文献2に記載の従来技術は、ユーザにより付与されるオブジェクトに関する情報を、撮像手段により撮像された情報と合成して表示するものであるが、同様に当該オブジェクトに関する情報の表示をどのように有効なタイミングで開始あるいは終了するかということについては、特に考慮されていなかった。
本発明はこれらの課題に鑑みてなされたものであって、ウェアラブルな情報表示端末等において、オブジェクトに関する情報の表示を適時に開始あるいは終了するとともに、ユーザが認識しやすい形式で前記情報を表示する情報表示端末及び情報表示方法を提供することを目的とする。
上記課題は、例えば特許請求の範囲に記載の発明により達成される。
本発明によれば、オブジェクトに関する情報の表示を適時に開始あるいは終了することができ、またユーザが認識しやすい形式で情報を表示でき、例えばウェアラブルな情報表示端末におけるユーザの利便性を向上させることができるという効果がある。
情報表示端末の構成の一例を示すブロック図。 情報表示端末をユーザが装着した場合の一例を示す見取図。 第1の実施形態における動作フロー図。 第1の実施形態における関連情報表示の一例を示す第1の図。 第1の実施形態における関連情報表示の一例を示す第2の図。 ネットワーク上のシステム構成を示すブロック図。 第2の実施形態における動作フロー図。 表示トリガー登録時の表示例を示す図。 第2の実施形態における関連情報表示の一例を示す第1の図。 第2の実施形態における関連情報表示の一例を示す第2の図。 第3の実施形態における動作フロー図。 第3の実施形態における関連情報表示の一例を示す第1の図。 第3の実施形態における関連情報表示の一例を示す第2の図。 第4の実施形態における動作フロー図。 第4の実施形態における関連情報表示の一例を示す第1の図。 第4の実施形態における関連情報表示の一例を示す第2の図。
以下、図面を用いて本発明の実施形態について説明する。
図1は、情報表示端末101の構成の一例を示すブロック図である。これを用いて第1の実施形態を説明する。
101は情報表示端末、102は情報表示端末101全体を制御する制御部、103は撮像部、104は画像処理部、105は表示制御部、106はマイクやイヤホンに相当する音声入出力部、107は音声処理部、108は通信処理部、109は通信入出力部、110はGPS(Gloval Positioning System)をはじめとする位置検出部、111はセンサ入出力部、112は各種のセンサである。
通信入出力部109はネットワークと無線通信により接続される。本実施形態では情報表示端末101が直接インターネット等に接続されて情報を取得する場合について説明する。但し、Bluetooth(登録商標)等の近距離無線通信により、別な装置である情報端末(スマートフォン等)と通信を行い、インターネット等との接続と主な処理を前記情報端末が行うような構成としてもよい。
情報表示端末101は少なくとも撮像部103及び表示制御部105を備えたヘッドマウントディスプレイである。各種センサ112としては、傾斜センサや加速度センサなどユーザの体勢や動きを検出するもの、視線センサや温度センサなどユーザの身体状態を検出するもの、感圧センサや静電容量センサなどユーザの指示入力を検知する入出力I/Fとして用いられるものをはじめとする、複数のセンサを搭載可能である。
図2は、情報表示端末101をユーザが装着した場合の一例を示す見取図である。図1と共通する構成要素には同一の符号を付してある。
201はユーザ、202は撮像部103で撮影される第1の画像の領域を模式的に示し、203は表示制御部105により表示される第2の画像の領域を模式的に示したものである。なお前記第2の画像の領域は203で示したサイズあるいは範囲に限定されるものではなく、視野を広くカバーするものであってもよい。また情報表示端末101の形態は、頭部に装着され、ユーザ201の視野内に例えば情報に応じた光を投射して情報を表示する表示制御部105と、ユーザ201の視野方向を撮像可能な撮像部103が配置されるものであれば良い。例えば眼鏡型、ゴーグル型、片目にかかるもの、両目にかかるもの等であって良く、図2に一例として示すような形に限定されるものではない。
撮像部103で撮像された領域202の第1の画像は、画像処理部104で解析され、そこに含まれる所定のオブジェクトが検出される。検出された該オブジェクトの特徴を表す情報、例えば後記するパターンに係る特徴を表す情報を、通信処理部108を介してネットワークに送信し、これに応じてネットワークより取得された前記オブジェクトに関する情報は、画像処理部104に供給される。画像処理部104は該情報に基づいて前記第2の画像を生成し、表示制御部105に供給する。表示制御部105は前記第2の画像を領域203に表示する。
表示制御部105は、例えば領域203に相当する位置に設けたハーフミラーに画像を表示し、或いはユーザ201の網膜上に直接第2の画像を投影して表示するが、少なくともヘッドマウントディスプレイとして透過型であり、第2の画像を表示しない場合には、領域203がユーザ201の視野を隠蔽しないものとする。
図3は、第1の実施形態における動作フロー図である
図4Aと図4Bは、第1の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。
図3、図4A、図4Bを用いて、本実施形態における情報表示端末101の動作について詳細に説明する。本実施形態では、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトに関する関連情報を第2の画像として表示する場合について説明する。
まずステップ301で処理を開始する。全体の処理開始は、センサ112における感圧センサ等のタッチ入力や、音声入出力部106からのユーザの音声入力によってもよい。また、位置検出部110で検出された位置情報、あるいは撮像部103により撮像された画像を基にユーザが特定の店舗内に居ることを認識して、自動的に行うようにしてもよい。
次にステップ302で所定オブジェクトの検出を行う。具体的には撮像部103で継続的に撮像された画像に対して、画像処理部104が画像認識を行い、切り出された複数のオブジェクトが所定パターンの形状、色、あるいはその変形予測値とのマッチングを取られる等して、所定オブジェクトが検出される。前記所定パターンは、店舗情報に応じたデフォルトのパターン(例えば「洋服」等のジャンル)であってもよいし、当該パターンを店舗情報に関連付けてインターネット等から取得するようにしてもよい。
またユーザが所望の商品が決まっている場合は、予め商品名、型番、ジャンル等を指定して、インターネット上のサーバやその他の公開情報から所定パターンを取得し、より具体的な所定オブジェクト検出を行うことも可能である。なおステップ302において検出される所定オブジェクトは単一とは限らず、撮像領域内で同時に複数検出される場合もある。
所定オブジェクトが検出されると、ステップ303において当該所定オブジェクトについての関連情報が取得される。具体的には通信処理部108により、前記所定オブジェクトに関する情報がインターネット等から通信入出力部109を介して取得される。撮像部103により撮像された所定オブジェクトの画像から、商品タグ等により商品名、型番等が確定できる場合には、それらに基づき関連情報を取得することも可能である。
続いてステップ304で表示トリガーの判定が行われる。表示トリガーとは、関連情報に基づく前記第2の画像の表示を開始するための特定のオブジェクトであり、この場合は「手」を表示トリガーとしている。ステップ302で所定オブジェクトが検出され、ステップ303で当該所定オブジェクトの関連情報が取得されていても、前記表示トリガーが撮像部103で撮像され画像処理部104で認識されない限り、前記第2の画像の表示は行わない。なお、画像表示部104が「手」を認識する方法は、ステップ302におけるオブジェクトの認識と同様な方法である。
例えば図4Aで示すように、撮像領域401の中で402から405がそれぞれ所定オブジェクトとして検出されていても、表示トリガーが撮像領域401内に存在しないため、前記第2の画像の表示は行わない(ステップ304のNo)。
一方図4Bで示すように、表示トリガーである特定オブジェクト407が撮像領域401内に認識され、所定オブジェクトに近接していると判断されると(ステップ304のYes)、ステップ305において、特定された所定オブジェクト402の関連情報に基づいた前記第2の画像が、画像処理部104にて生成される。さらに前記第2の画像は、所定オブジェクト402に関連する情報として認識できる形で、表示制御部105により表示される。
第2の画像406として表示される内容は、この場合所定オブジェクト402に関する商品情報である。ここでは当該商品に関する口コミ情報や価格相場情報などが、ユーザに認識されやすい形式で表示されている。なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域401の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。
ステップ306において、前記表示トリガーの判定が継続的に行われ、表示トリガーが認識されている間は前記関連情報の表示を行う。なお表示トリガーの位置が変更され、所定オブジェクトが変更になった場合は、変更後の所定オブジェクトに関する第2の画像に切り替えるようにする(ステップ306のYes)。また表示トリガーである特定オブジェクト407が撮像領域401の中で認識できなくなった場合は、ステップ307において前記第2の画像の表示を終了し、再びステップ302の所定オブジェクトの検出に戻る(ステップ306のNo)。
図5は、ネットワーク上のシステム構成を示すブロック図である。通信処理部108を介した前記関連情報の取得について、図5を用いて簡単に説明する。
情報表示端末101は、前述の構成によりインターネット501から所定オブジェクト402の関連情報を取得する。当該情報は不特定な第三者により、例えばパーソナルコンピュータ502、携帯端末503、情報表示端末504などを用いてインターネット501を介して送信され、例えばサーバ505によりストレージ506に蓄積される。情報表示端末101は、撮像部103が撮像した画像から検出した所定オブジェクト402を識別する情報を送信し、サーバ505はストレージ506に蓄積された情報の中から、所定オブジェクト402に関連する情報を情報表示端末101に対して提供する。
なおサーバ505は予め所定の店舗、所定の地域等について情報を集約し、情報表示端末向けに情報提供を行う。逆に特定のサーバ505が関連情報を集約していない場合は、インターネットに接続された複数のサーバが公開している情報から、情報表示端末101が所定オブジェクト402に関連する情報を検索して取得することもできる。
以上のように本発明の第1の実施形態によれば、ウェアラブルな情報表示端末において、所定オブジェクトの関連情報について、例えば手をオブジェクトに近づけるという表示トリガーを用いて前記第2の画像の表示開始あるいは終了を行う。これにより、ユーザの意思あるいは行動(例えば商品を手に取る=商品に関連する情報を見たい)を反映したタイミング及び期間に前記第2の画像の表示を行うことが可能となる。ユーザは情報表示端末を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上する。また不要なタイミングで前記第2の画像が表示され、あるいは複数のオブジェクトに対する情報が同時に表示されるようなことがなくなるため、ユーザにとって煩わしい表示となることを回避できるという効果がある。
次に、情報表示端末101の第2の実施形態を、図6から図8Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また第1の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示する場合について説明する。
図6は、第2の実施形態における動作フロー図である。
図7は、表示トリガー登録時の表示例を示す図である。
本実施形態において特徴的となるのは、ユーザが前述の表示トリガーを登録できるようにしている点である。図6は表示トリガー登録時の動作フローを示しており、図7は表示トリガー登録時のユーザの視野を示している。
まずステップ601で処理を開始する。処理開始としては、感圧センサ等のタッチ入力や音声入力によるユーザ指示により行うことができる。次にステップ602において、表示トリガーを登録するための枠を表示する。具体的には画像処理部104が登録枠を表す画像を生成し、表示制御部105が図7のように撮像部103の撮像領域701の範囲内、即ちユーザの視野方向に登録枠702を表示する。
ステップ603において、ユーザは表示トリガーとして登録したい特定オブジェクトを、登録枠702に収まるように位置させる。この場合は「手のひら」を特定オブジェクト703としている。続いてステップ604において、撮像部103で撮像された画像から、画像処理部104が登録枠702の範囲内に特定オブジェクト703が存在すると認識すると、当該オブジェクトを表示トリガーとして登録するか否かをユーザに問合せる。ユーザへの問合せは、図7に示すように文字の表示で行ってもよいし、音声入出力部106からの音声出力により行ってもよい。
ユーザの指示入力により登録指示がなされると(ステップ604のYes)、特定オブジェクト703が表示トリガーとして情報表示端末101内のメモリ(図示せず)に記憶される。なお、該メモリは制御部102又は画像処理部104からアクセスできるように設けられるか、これらが内蔵しても良い。その後ステップ606において処理を終了する。なおステップ604で画像処理部104が特定オブジェクト703の存在を認識した段階で、特定オブジェクト703の輪郭を表す画像を生成し表示制御部105が表示するとともに、音声入出力部106から音声を出力し、ユーザに特定オブジェクト703が認識されたことを通知することも可能である。
図8Aと図8Bは、第2の実施形態における関連情報表示の一例を示す図である。ここで第1の実施形態の場合と同様に、ユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について、図8Aと図8Bを用いて説明する。ここでは、ステップ605で特定オブジェクト703として、「手のひら」が登録されたものとする。
動作フローは基本的に図3の場合と同様であるので、詳細な説明は省略する。前述のステップ304の表示トリガーの判定において、図8Aに示すように撮像領域801内に所定オブジェクト802が存在し、関連情報がインターネット等から取得されているが、特定オブジェクト803は「手の甲」であり、登録された表示トリガーとして認識されないため、関連情報の表示は行われない。登録された表示トリガーとの一致判定は、画像処理部104においてオブジェクトの形状、色、あるいはそれらの変形予測値等とのマッチングが取られる等して判断される。図8Bでは特定オブジェクト804は「手のひら」であり、図6のステップ605で登録済の表示トリガーとして判断される。
さらに、ステップ305において、表示トリガーにより特定された所定オブジェクト802の関連情報が、画像処理部104にて第2の画像805として生成される。さらに前記第2の画像805は、所定オブジェクト802に関連する情報として認識できる形で、表示制御部105により表示される。
前述と同様に、第2の画像805として表示される内容は、所定オブジェクト802に関する商品情報としてユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域701及び801の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。
以上のように本発明の第2の実施形態によれば、ウェアラブルな情報表示端末において、特定のオブジェクトを表示トリガーとして登録することにより、ユーザの意図に応じた前記第2の画像の表示開始あるいは終了を行うことができる。実施形態1の場合と同様に、ユーザは情報表示端末を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなく、またユーザの要望に応じて適宜表示トリガーを変えることが可能となるため、利便性が向上する。
本実施形態の変形例として、図3のステップ301における処理開始を、登録された表示トリガーにより行う実施形態が考えられる。つまり情報表示端末101の動作として、まずステップ301で継続して表示トリガーの判定のみを行う。そして、撮像部103で撮像された画像から、画像認識部104において認識されたオブジェクトが、登録された表示トリガーと一致すると判定された場合に、ステップ302以降の動作を行う実施形態である。本実施形態の例では、撮像領域401に「手のひら」を示すことで一連の動作を行わせることができる。動作の開始が簡単になるため、更にユーザの利便性を向上することができるという効果がある。
次に情報表示端末101の第3の実施形態を、図9、図10Aと図10Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また本実施形態でも前述の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明する。
図9は、第3の実施形態における動作フロー図である。
図10Aと図10Bは、第3の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。
ステップ901からステップ903の動作については、前述の図3におけるステップ301からステップ303の動作と同様であり、詳細な説明は省略する。ステップ901で処理を開始すると、ステップ902で所定オブジェクトを検出し、ステップ903で前記所定オブジェクトに関する関連情報がインターネット等から取得される。なおステップ902において検出される所定オブジェクトは単一とは限らず、撮像領域内で同時に複数検出される場合もある。
続いてステップ904でユーザの視線判定が行われる。情報表示端末101を装着したユーザの視線は、センサ112に含まれる視線センサにより、その注視点が検出される。視線センサについては、例えば前述の特許文献1に記載の赤外線を利用した方法、CMOS(Complementary Metal−Oxide Semiconductor)センサを利用した方法等が知られている。注視点が前記検出した所定オブジェクトにかかる範囲にない場合(ステップ904のNo)、前記関連情報に係る第2の画像の表示は行わない。例えば図10Aで示すように、撮像領域1001の中で1002から1005がそれぞれ所定オブジェクトとして検出されていても、注視点1006がいずれかの所定オブジェクトにもかからない場合は、関連情報に係る第2の画像の表示は行わない。
一方、図10Bのように、注視点1006が所定オブジェクト1002にかかった場合、その状態が所定時間(例えば3秒)以上継続した場合は(ステップ904のYes)、ステップ905において、当該所定オブジェクト1002の関連情報が、画像処理部104にて第2の画像1007として生成され、所定オブジェクト1002に関連する情報として認識できる形で、表示制御部105により表示される。第2の画像1007として表示される内容は、前述の実施例と同様に、所定オブジェクト1002に関する商品情報であり、当該商品に関する口コミ情報や価格相場情報などを、ユーザが認識しやすい形式で表示している。
なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また撮像領域1001の破線及び注視点1006のマークは、便宜上示しているのみであり、ユーザの視野内に表示されるものではない。ただし注視点1006のマークについては、画像として表示するモードを設けてユーザが認識できるようにすることも可能であり、その場合マークの形状は注視点1006の形状に限定されない。
ステップ906において、視線判定を継続的に行い、注視点1006が所定オブジェクト1002あるいは第2の画像1007にかかる範囲にある間は、第2の画像1007を表示する(ステップ906のYes)。これは第2の画像1007が表示された時点で、注視点1006は第2の画像1007側に移動するためである。また注視点1006が所定オブジェクト1002あるいは第2の画像1007にかかる範囲から外れた場合、または外れて所定時間(例えば3秒)以上継続した場合は、第2の画像1007の表示を終了し(ステップ906のNo)、再びステップ902の所定オブジェクトの検出に戻る。
以上のように第3の実施形態によれば、ウェアラブルな情報表示端末101において、所定オブジェクトの関連情報について、ユーザの注視点に応じて第2の画像の表示開始あるいは終了を行うことにより、ユーザの意思あるいは行動(例えば商品に注目している=商品に関連する情報を見たい)を反映したタイミング及び期間に画像の表示を行うことが可能となる。前述の実施形態の場合と同様に、ユーザは情報表示端末101を装着した状態で両手を自由に使うことが可能であり、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上する。また不要なタイミングで第2の画像が表示される、あるいは複数のオブジェクトに対する情報が同時に表示されるようなことがなくなるため、ユーザにとって煩わしい表示となることを回避できるという効果がある。
次に情報表示端末101の第4の実施形態を、図11、図12Aと図12Bを用いて説明する。情報表示端末101の構成については、基本的に前述の図1の場合と同様なので、図1の各構成要素に付した番号を用いて説明する。また本実施形態でも前述の実施形態と同様に、特にユーザが店舗内等で商品を物色している場合に、情報表示端末101が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明する。
図11は、第4の実施形態における動作フロー図である。
図12Aと図12Bは、第4の実施形態における関連情報表示の一例を示す図であり、ユーザの視野を示している。
ステップ1101からステップ1103の動作については、前述の図3におけるステップ301からステップ303の動作と同様であり、詳細な説明は省略する。ステップ1101で処理を開始すると、ステップ1102で所定オブジェクトを検出し、ステップ1103で前記所定オブジェクトに関する関連情報がインターネット等から取得される。なお本実施形態では、ステップ1102において撮像領域内で同時に複数の所定オブジェクトが検出される場合について説明する。
複数の所定オブジェクトが検出され関連情報が取得されると、ステップ1104において候補マークの表示が行われる。候補マークとは、検出された所定オブジェクトで関連情報として有効なものを取得できた場合に表示されるマークのことである。例えば図12Aは、ステップ1102において撮像領域1201内で1202から1205が所定オブジェクトとして検出され、ステップ1103において1202、1204、1205について有効な関連情報が取得できた場合を示している。1206から1208が候補マークであり、画像処理部104により画像として生成され、表示制御部105により該当する所定オブジェクトの一部に重畳するように表示される。なお候補マークは、ユーザが認識できる程度の大きさで、どの所定オブジェクトに関連するものかを判別できるものであれば、その形状は図12Aに示すものに限定されない。
続いてステップ1105で表示トリガーの判定が行われる。この場合前述の実施例と同様に「手」を表示トリガーとしている。図12Aでは、撮像領域1201の中で表示トリガーが存在しないため、候補マーク1206、1207、1208のみが表示されており、各所定オブジェクトの関連情報に係る第2の画像の表示は行われない。
一方図12Bのように、表示トリガーである特定オブジェクト1209が撮像領域1201内に認識され、所定オブジェクト1202に近接していると判断されると、ステップ1106において、表示トリガーにより特定された所定オブジェクト1202の関連情報が、画像処理部104にて第2の画像1210として生成され、候補マーク1206に代わるものとして、表示制御部105により表示される。
この場合、所定オブジェクト1202は他のオブジェクト1203乃至1205に近接している。このため、第2の画像1210は所定オブジェクト1202の一部と重畳するように表示される。これにより、第2の画像1210が、どのオブジェクトに係る表示であるかを明確にしている。なお、他の実施形態においても、第2の画像がどのオブジェクトに係る画像であるかを明確にするためには、前記第2の画像を関連するオブジェクトと一部が重畳するように表示すると良い。
第2の画像1210として表示される内容は、前述の実施形態と同様に、所定オブジェクト1202に関する商品情報であり、当該商品に関する口コミ情報や価格相場情報などを、ユーザが認識しやすい形式で表示している。なお表示される内容は、ユーザにとって有用な情報であればよく、特に限定されるものではない。また候補マーク1207及び1208は、該当オブジェクトが選択されていない状態なので、継続的に候補マークのまま表示される。なお撮像領域1201の破線は便宜上示しているのみであり、ユーザの視野内に表示されるものではない。
ステップ1107において、前記表示トリガーの判定が継続的に行われ、表示トリガーが認識されている間は前記関連情報の表示を行う(ステップ1107のYes)。なお表示トリガーの位置が変更され、表示トリガーに近接する所定オブジェクトが変更になった場合は、変更後の所定オブジェクトについての候補マークを関連情報に係る第2の画像の表示に切り替えるようにする。また変更前の所定オブジェクトについては、関連情報に係る第2の画像から候補マーク表示に再び切り替えるようにする。表示トリガーである特定オブジェクト1209が撮像領域1201の中で認識できなくなった場合は(ステップ1107のNo)、ステップ1108において前記関連情報に係る第2の画像表示を終了し、ステップ1102の所定オブジェクトの検出に戻る。ただし撮像領域1201内で表示済の候補マークについては、表示を継続する。
以上のように第4の実施形態によれば、ウェアラブルな情報表示端末101において、所定オブジェクトの関連情報表示に先立って候補マークを表示することにより、ユーザは予め関連情報を表示可能なオブジェクトがどれなのかを認識することが可能となる。関連情報自体については、表示トリガーを用いて第2の画像の表示開始あるいは終了を行うので、ユーザの意思あるいは行動を反映したタイミング及び期間に第2の画像の表示を行うことが可能である。ユーザは情報表示端末101を装着した状態で両手を自由に使うことが可能であり、どのオブジェクトについて関連情報が表示可能かを認識しながら第2の画像の表示を行うことができる。さらに、オブジェクトを選ぶ際に情報表示端末101自体を操作する必要がなくなり、利便性が向上するという効果がある。
本実施形態の変形例として、図12Aにおける候補マーク1206から1208の大きさあるいは色を、該当する関連情報の内容の有効性により差を付ける実施形態が考えられる。候補マークを表示する時点で各関連情報は取得済なので、例えば付加情報の量が多い場合、または事前にユーザが指定した商品である場合等に、表示マークを大きくする、あるいは赤色系の枠にする。これにより、さらにユーザが事前に認識しやすいものとすることが可能である。
なお本実施形態では、候補マークを表示する動作について、第1の実施形態に組み合わせるような場合について説明したが、その他の実施形態に組み合わせて実施することも可能である。
以上説明した全ての実施形態において、特にユーザが店舗内、特に衣料品店で商品を物色している場合に、情報表示端末が所定のオブジェクトについて関連情報を第2の画像として表示するような場合について説明してきた。しかし、適用場面はこれに限定されるものではなく、その他のカテゴリの店舗や、屋外での情報表示などに適用することも可能である。また表示トリガーとして主に「手」を用いる場合について説明したが、その他のものを指定して表示トリガーとすることができる。
また本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。さらに上記の各機能、処理部等は、それらの一部又は全部をハードウェアで実現しても良いし、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することによりソフトウェアで実現してもよい。なお制御線や情報線は説明上必要と考えられるものを示しており、必ずしも全ての制御線や情報線を示しているとは限らない。
101、504… 情報表示端末、102… 制御部、103… 撮像部、104… 画像処理部、105… 表示制御部、106… 音声入出力部、107… 音声処理部、108… 通信処理部、109… 通信入出力部、110… 位置検出部、111… センサ入出力部、112… 各種センサ、201… ユーザ、202、401、701、801、1001、1201… 撮像領域、203… 画像領域、402、802、1002、1202… 所定オブジェクト、406、805、1007、1210… 関連情報の画像、407、804、1209… 表示トリガー、501… インターネット、502… パーソナルコンピュータ、503… 携帯端末、505… サーバ、506… ストレージ、702… 登録枠、1006… 注視点、1206、1207、1208… 候補マーク。

Claims (20)

  1. 使用者の視野方向に情報を表示する情報表示端末であって、
    ネットワークから情報を取得するための通信を行う通信処理部と、
    前記視野方向を撮像する撮像部と、
    前記撮像部が撮像した第1の画像から第1のオブジェクトを検出し、前記通信処理部を介して前記ネットワークから取得した前記第1のオブジェクトの関連情報を第2の画像として生成する画像処理部と、
    前記第2の画像を前記視野方向に表示する表示制御部と、
    前記情報表示端末の構成要素の動作を制御する制御部と
    を有し、
    前記制御部は、
    前記画像処理部が前記第1の画像から任意のオブジェクトを特定するための第2のオブジェクトを検出し、さらに、前記第1のオブジェクトと前記第2のオブジェクトが近接した位置にあると判断した場合に、前記第2の画像を表示するよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  2. 請求項1に記載の情報表示端末において、
    前記制御部は、
    前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳してなされるよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  3. 請求項1に記載の情報表示端末において、
    前記制御部は、
    前記近接した状態が解除されたと判断した場合には、前記第2の画像の表示を停止するよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  4. 請求項1に記載の情報表示端末において、
    前記制御部は、
    前記撮像部が撮像した前記第1の画像から前記第2のオブジェクトを確定する情報を取得するよう前記画像処理部を制御する
    ことを特徴とする情報表示端末。
  5. 請求項4に記載の情報表示端末において、
    前記制御部は、
    所定の領域を表す画像を前記画像処理部に生成させて前記表示制御部に表示させ、表示された前記領域内に位置するオブジェクトから前記第2のオブジェクトを確定する情報を取得するよう前記画像処理部を制御する
    ことを特徴とする情報表示端末。
  6. 使用者の視野方向に情報を表示する情報表示端末であって、
    ネットワークから情報を取得するための通信を行う通信処理部と、
    前記視野方向を撮像する撮像部と、
    前記撮像部が撮像した第1の画像から第1のオブジェクトを検出し、前記通信処理部を介して前記ネットワークから取得した前記第1のオブジェクトの関連情報を第2の画像として生成する画像処理部と、
    前記第2の画像を前記視野方向に表示する表示制御部と、
    前記使用者の注視点を検出する視線センサと、
    前記情報表示端末の構成要素の動作を制御する制御部と
    を有し、
    前記制御部は、
    前記視線センサが検出した使用者の注視点が前記第1のオブジェクトにかかる位置に所定時間以上存在した場合には、前記第2の画像を表示するよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  7. 請求項6に記載の情報表示端末において、
    前記制御部は、
    前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳してなされるよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  8. 請求項6に記載の情報表示端末において、
    前記制御部は、
    前記注視点が前記第1のオブジェクトにかかる位置あるいは前記第2の画像にかかる位置から外れた後に所定時間経過した場合には、前記第2の画像の表示を停止するよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  9. 請求項1に記載の情報表示端末において、
    前記制御部は、
    前記画像処理部に前記第1のオブジェクトに係る特定のマーク画像を生成させ、前記表示制御部が前記第2の画像を表示しない場合には、前記マーク画像を前記第1のオブジェクトに一部重畳するように表示するよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  10. 請求項9に記載の情報表示端末において、
    前記制御部は、
    前記画像処理部が前記ネットワークから前記第1のオブジェクトに係る有効な関連情報を取得した場合に、前記マーク画像を表示するよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  11. 請求項9に記載の情報表示端末において、
    前記制御部は、
    前記第2の画像の表示を行う場合には、前記マーク画像の表示を前記第2の画像の表示に切り替えるよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  12. 請求項9に記載の情報表示端末において、
    前記制御部は、
    前記関連情報の有効性に応じて前記マーク画像の表示状態を変更するよう前記表示制御部を制御する
    ことを特徴とする情報表示端末。
  13. 請求項1に記載の情報表示端末において、
    前記情報表示端末の位置を検出する位置情報検出部を備え、
    前記制御部は、
    前記位置情報検出部が検出した位置と前記撮像部により撮像された画像に基づいて、前記通信処理部により前記ネットワークから情報を取得して、前記使用者の詳細な位置情報を判断するよう制御する
    ことを特徴とする情報表示端末。
  14. 請求項1に記載の情報表示端末と、ネットワークに接続され情報を通信する情報端末とを有する情報表示システムであって、
    前記情報表示端末の通信処理部は、前記情報端末を介して前記ネットワークと情報を通信する
    ことを特徴とする情報表示システム。
  15. 使用者の視野方向に情報を表示する情報表示方法であって、
    前記視野方向を撮像し、
    撮像して得た第1の画像から第1のオブジェクトを検出し、
    該第1のオブジェクトに係る関連情報をネットワークから取得し、
    前記関連情報に係る第2の画像を生成し、
    前記第1の画像から任意のオブジェクトを特定するための第2のオブジェクトを検出し、
    前記第1のオブジェクトと前記第2のオブジェクトが近接した位置にあると判断した場合に、前記第2の画像を前記視野方向に表示する
    ことを特徴とする情報表示方法。
  16. 請求項15に記載の情報表示方法において、
    前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳して行う
    ことを特徴とする情報表示方法。
  17. 請求項15に記載の情報表示方法であって、
    前記第1の画像から前記第2のオブジェクトを確定する情報を取得する
    ことを特徴とする情報表示方法。
  18. 使用者の視野方向に情報を表示する情報表示方法であって、
    前記視野方向を撮像し、
    撮像して得た第1の画像から第1のオブジェクトを検出し、
    該第1のオブジェクトに係る関連情報をネットワークから取得し、
    前記関連情報に係る第2の画像を生成し、
    前記使用者の注視点を検出し、
    前記注視点が前記第1のオブジェクトにかかる位置に所定時間以上存在した場合には、前記第2の画像を前記視野方向に表示する
    ことを特徴とする情報表示方法。
  19. 請求項18に記載の情報表示方法において、
    前記第2の画像の表示を、前記第1のオブジェクトの一部に重畳して行う
    ことを特徴とする情報表示方法。
  20. 請求項15に記載の情報表示方法において、
    前記第1のオブジェクトに係る特定のマーク画像を生成し、
    前記第2の画像を表示しない場合には、前記マーク画像を前記第1のオブジェクトの一部に重畳するように表示する
    ことを特徴とする情報表示方法。
JP2015557613A 2014-01-15 2014-01-15 情報表示端末、情報表示システム及び情報表示方法 Active JP6312712B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/050513 WO2015107625A1 (ja) 2014-01-15 2014-01-15 情報表示端末、情報表示システム及び情報表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018052754A Division JP6714632B2 (ja) 2018-03-20 2018-03-20 情報表示端末及び情報表示方法

Publications (2)

Publication Number Publication Date
JPWO2015107625A1 true JPWO2015107625A1 (ja) 2017-03-23
JP6312712B2 JP6312712B2 (ja) 2018-04-18

Family

ID=53542549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015557613A Active JP6312712B2 (ja) 2014-01-15 2014-01-15 情報表示端末、情報表示システム及び情報表示方法

Country Status (4)

Country Link
US (2) US10386637B2 (ja)
JP (1) JP6312712B2 (ja)
CN (2) CN108986766B (ja)
WO (1) WO2015107625A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6312712B2 (ja) * 2014-01-15 2018-04-18 マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
US11030778B2 (en) * 2014-03-31 2021-06-08 Healthy.Io Ltd. Methods and apparatus for enhancing color vision and quantifying color interpretation
WO2015155841A1 (ja) * 2014-04-08 2015-10-15 日立マクセル株式会社 情報表示方法および情報表示端末
JP6421543B2 (ja) * 2014-10-17 2018-11-14 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
CN104699250B (zh) * 2015-03-31 2018-10-19 小米科技有限责任公司 显示控制方法及装置、电子设备
US10317994B2 (en) * 2015-06-05 2019-06-11 International Business Machines Corporation Initiating actions responsive to user expressions of a user while reading media content
JP6791167B2 (ja) * 2015-12-14 2020-11-25 ソニー株式会社 情報処理装置、携帯型装置の制御方法、およびプログラム
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
CN107105188A (zh) * 2017-05-23 2017-08-29 北京小米移动软件有限公司 通信处理方法及装置
US11335044B2 (en) * 2017-06-28 2022-05-17 Optim Corporation Display system of a wearable terminal, display method of the wearable terminal, and program
CN107358639B (zh) * 2017-07-25 2022-08-30 上海传英信息技术有限公司 一种基于智能终端的照片展示方法及照片展示系统
JP6853152B2 (ja) * 2017-09-26 2021-03-31 株式会社Nttドコモ 情報処理装置、端末装置および情報処理システム
JP6601480B2 (ja) * 2017-12-05 2019-11-06 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2019111625A (ja) * 2017-12-25 2019-07-11 カシオ計算機株式会社 情報処理装置、ロボット、情報処理方法及びプログラム
JP6876639B2 (ja) * 2018-02-05 2021-05-26 Kddi株式会社 表示制御装置、表示制御方法及びプログラム
WO2020053913A1 (ja) * 2018-09-10 2020-03-19 株式会社ウフル ウェアラブル端末表示システム、方法、プログラム及びウェアラブル端末
CN109472225A (zh) * 2018-10-26 2019-03-15 北京小米移动软件有限公司 会议控制方法及装置
JP6589038B1 (ja) * 2018-12-19 2019-10-09 株式会社メルカリ ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法
JP7157871B2 (ja) * 2019-03-08 2022-10-20 株式会社Nttドコモ 関連情報出力装置
JP7078568B2 (ja) * 2019-03-19 2022-05-31 株式会社日立製作所 表示装置、表示制御方法、及び表示システム
KR20220017474A (ko) * 2019-06-07 2022-02-11 가부시키가이샤 한도오따이 에네루기 켄큐쇼 복합 디바이스
JP7364686B2 (ja) * 2019-11-15 2023-10-18 マクセル株式会社 表示装置、および表示方法
JP7114564B2 (ja) * 2019-12-27 2022-08-08 マクセル株式会社 ヘッドマウントディスプレイ装置
WO2022065383A1 (ja) * 2020-09-24 2022-03-31 株式会社Jvcケンウッド 表示システム、表示方法及びプログラム
JP7309830B2 (ja) * 2020-10-01 2023-07-18 株式会社東芝 電子機器及び表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2010067083A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2012008290A (ja) * 2010-06-23 2012-01-12 Softbank Mobile Corp 眼鏡型表示装置及びサーバ

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6014117A (en) * 1997-07-03 2000-01-11 Monterey Technologies, Inc. Ambient vision display apparatus and method
US6346962B1 (en) * 1998-02-27 2002-02-12 International Business Machines Corporation Control of video conferencing system with pointing device
JP4631987B2 (ja) 1998-10-19 2011-02-16 ソニー株式会社 情報処理端末、情報処理システム及び情報処理方法
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US20030210228A1 (en) * 2000-02-25 2003-11-13 Ebersole John Franklin Augmented reality situational awareness system and method
JP4875843B2 (ja) 2004-10-20 2012-02-15 オリンパス株式会社 情報端末装置
JP3830956B1 (ja) * 2005-09-14 2006-10-11 健治 吉田 情報出力装置
JP5036177B2 (ja) * 2005-12-12 2012-09-26 オリンパス株式会社 情報表示装置
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
JP5092357B2 (ja) * 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP5195537B2 (ja) 2009-03-09 2013-05-08 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5272827B2 (ja) * 2009-03-18 2013-08-28 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5402293B2 (ja) * 2009-06-22 2014-01-29 ソニー株式会社 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法
JP5474202B2 (ja) * 2009-09-29 2014-04-16 アルカテル−ルーセント 顔検出および画像測定に基づいて注視点を検出する方法および装置
JP2011166589A (ja) 2010-02-12 2011-08-25 Aplix Corp 携帯端末および情報提示方法
WO2011122654A1 (ja) * 2010-03-30 2011-10-06 新日鉄ソリューションズ株式会社 情報処理装置、情報処理方法及びプログラム、情報処理装置、空きスペース案内システム、空きスペース案内方法及びプログラム、画像表示システム、画像表示方法及びプログラム
KR101830679B1 (ko) * 2010-07-29 2018-02-22 삼성디스플레이 주식회사 표시 패널 검사 장치 및 그 방법
US8493353B2 (en) * 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
US20130083007A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Changing experience using personal a/v system
US9268410B2 (en) * 2012-02-10 2016-02-23 Sony Corporation Image processing device, image processing method, and program
JP5884576B2 (ja) * 2012-03-16 2016-03-15 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US9430876B1 (en) * 2012-05-10 2016-08-30 Aurasma Limited Intelligent method of determining trigger items in augmented reality environments
US9389420B2 (en) * 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
IN2015DN02046A (ja) * 2012-09-21 2015-08-14 Sony Corp
US20140240225A1 (en) * 2013-02-26 2014-08-28 Pointgrab Ltd. Method for touchless control of a device
JP6224327B2 (ja) * 2013-03-05 2017-11-01 任天堂株式会社 情報処理システム、情報処理装置、情報処理方法、および情報処理用プログラム
JP5962547B2 (ja) * 2013-03-08 2016-08-03 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9245388B2 (en) * 2013-05-13 2016-01-26 Microsoft Technology Licensing, Llc Interactions of virtual objects with surfaces
JPWO2014188565A1 (ja) * 2013-05-23 2017-02-23 パイオニア株式会社 表示制御装置
US9235051B2 (en) * 2013-06-18 2016-01-12 Microsoft Technology Licensing, Llc Multi-space connected virtual data objects
CN103488745A (zh) 2013-09-22 2014-01-01 宇龙计算机通信科技(深圳)有限公司 获取信息的方法及终端
US10045091B1 (en) * 2013-09-30 2018-08-07 Cox Communications, Inc. Selectable content within video stream
WO2015072604A1 (ko) * 2013-11-15 2015-05-21 엘지전자(주) 투명 디스플레이 장치와 그의 제어방법
JP6312712B2 (ja) * 2014-01-15 2018-04-18 マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
WO2015155841A1 (ja) * 2014-04-08 2015-10-15 日立マクセル株式会社 情報表示方法および情報表示端末
US20170046879A1 (en) * 2014-04-30 2017-02-16 Robert Paul Severn Augmented reality without a physical trigger

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2010067083A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2012008290A (ja) * 2010-06-23 2012-01-12 Softbank Mobile Corp 眼鏡型表示装置及びサーバ

Also Published As

Publication number Publication date
US10656424B2 (en) 2020-05-19
US20190331927A1 (en) 2019-10-31
CN105874528B (zh) 2018-07-20
CN105874528A (zh) 2016-08-17
US10386637B2 (en) 2019-08-20
WO2015107625A1 (ja) 2015-07-23
US20160320622A1 (en) 2016-11-03
CN108986766A (zh) 2018-12-11
JP6312712B2 (ja) 2018-04-18
CN108986766B (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
JP6312712B2 (ja) 情報表示端末、情報表示システム及び情報表示方法
US9900498B2 (en) Glass-type terminal and method for controlling the same
CN107390863B (zh) 设备的控制方法及装置、电子设备、存储介质
EP2960630A2 (en) Eyewear-type terminal and method for controlling the same
JP5870929B2 (ja) 情報処理システム、情報処理装置および情報処理方法
US8988519B2 (en) Automatic magnification of data on display screen based on eye characteristics of user
CN108681399B (zh) 一种设备控制方法、装置、控制设备及存储介质
CN106164838B (zh) 信息显示方法和信息显示终端
CN102207819A (zh) 信息处理器、信息处理方法和程序
JP2014140097A (ja) 画像表示装置及び画像表示方法
CN109804357A (zh) 服务器、客户端、控制方法和存储介质
KR20190035116A (ko) Ar 객체를 표시하기 위한 장치 및 방법
CN115512534B (zh) 远程设备的发现和连接
JP6714632B2 (ja) 情報表示端末及び情報表示方法
US10514755B2 (en) Glasses-type terminal and control method therefor
KR20200144196A (ko) 전자 장치 및 각막 이미지를 이용한 전자 장치의 기능 제공 방법
CN113655638A (zh) 用于控制智能家电的方法及装置、智能眼镜
JP7078568B2 (ja) 表示装置、表示制御方法、及び表示システム
JP2014010605A (ja) 情報処理装置、情報表示装置、情報処理方法およびプログラム
US20200279110A1 (en) Information processing apparatus, information processing method, and program
JP2013182422A (ja) 電子機器
US20190364256A1 (en) Method and System for Dynamically Generating Scene-Based Display Content on a Wearable Heads-Up Display
JP2016051276A (ja) 電子機器及び情報表示プログラム
JP2013183289A (ja) 電子機器
US20210072827A1 (en) Line-of-sight input device, method of line-of-sight input, and line-of-sight input system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170929

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180320

R150 Certificate of patent or registration of utility model

Ref document number: 6312712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250