JP2015176588A - 表示装置、画像表示システムおよび情報処理方法 - Google Patents

表示装置、画像表示システムおよび情報処理方法 Download PDF

Info

Publication number
JP2015176588A
JP2015176588A JP2014055167A JP2014055167A JP2015176588A JP 2015176588 A JP2015176588 A JP 2015176588A JP 2014055167 A JP2014055167 A JP 2014055167A JP 2014055167 A JP2014055167 A JP 2014055167A JP 2015176588 A JP2015176588 A JP 2015176588A
Authority
JP
Japan
Prior art keywords
image
display
unit
projection
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014055167A
Other languages
English (en)
Inventor
快行 爰島
Yasuyuki Kokojima
快行 爰島
進平 澤田
Shimpei Sawada
進平 澤田
航 渡邉
Wataru Watanabe
航 渡邉
馬場 雅裕
Masahiro Baba
雅裕 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014055167A priority Critical patent/JP2015176588A/ja
Priority to CN201510117659.XA priority patent/CN104932675A/zh
Priority to US14/659,941 priority patent/US20150271457A1/en
Publication of JP2015176588A publication Critical patent/JP2015176588A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)

Abstract

【課題】ユーザの利便性と操作性に優れた表示装置、画像表示システムおよび情報処理方法を提供する。【解決手段】実施形態の表示装置は、投射部と光学部材と第1取得部とを備える。投射部は、投射用画像の情報を含む光を投射する。光学部材は、表示面へのタッチ操作を検出可能な第1検出部と、検出したタッチ操作に応じて表示用画像のうちの少なくとも一部の第1画像を表示する表示部とを有する情報処理装置からの光を透過させる一方、入射した投射用画像の情報を含む光を反射させる。第1取得部は、表示用画像のうち第1画像の少なくとも一部と重ならない非重畳領域を含む第2画像に対して、光学部材を透過する情報処理装置からの光と、光学部材で反射する投射用画像の情報を含む光とから、表示部の周囲に非重畳領域が配置された状態が観察されるよう、表示部の位置に基づく変換を施すことで得られた投射用画像を取得する。【選択図】図2

Description

本発明の実施形態は、表示装置、画像表示システムおよび情報処理方法に関する。
近年、腕時計型端末やメガネ型端末などのウェアラブルデバイスに注目が集まっている。ユーザの頭部に装着されるとともに、小型のディスプレイに表示する画像をユーザの眼前の光学系に投射することで当該画像をユーザに提示することが可能なメガネ型端末は、非透過型と透過型の2種類に大別される。非透過型は装着者の視野全体を覆い尽くして臨場感の高い映像を表示する用途に適している。従来から知られているヘッドマウントディスプレイ(Head Mounted Display;HMD)の多くが非透過型に分類される。一方、透過型は装着者の視野を遮らずに補助的な情報を表示する用途に適しており、非透過型に比べて小型軽量であることが多い。
このようなウェアラブルデバイスは即時性と可搬性に優れており、装着者はいつでもどこでも、ハンズフリーで情報を見ることができる。しかし、ハンズフリーであるがゆえに、操作しづらいという問題がある。音声コマンドで操作する技術や、メガネ型端末のツル(テンプル)に組み込まれたタッチパネルを触って操作する技術が実用化されているが、見た眼に不自然であり、公共の場では使いづらい。
この問題を解決するため、携帯電話やスマートフォン、タブレットなどの携帯端末を介してウェアラブルデバイス(典型的にはメガネ型端末)を操作する技術が提案されている。例えば、従来技術として、携帯端末の画面をメガネ型端末に組み込まれたカメラで撮影し、撮影した画像に写っている携帯端末の画面の周囲を覆うように、携帯端末の画面に表示し切れない外側の領域の画像を合成し、1つの大画面を構成するようつなぎ合わせてメガネ型端末で表示する技術が知られている。この技術では、ユーザは、携帯端末の画面をタッチすることで、メガネ型端末から提示される大画面のうち携帯端末の画面が表示される領域の特定の箇所を指し示すことができる。そして、ユーザのタッチ操作に応じて、メガネ型端末に表示する画像を制御することができる。
N. Sakata et al: A Tablet interface for laying out AR objects -Outlook of relationship with smartphone and AR-, IDW13, INP2/DES2-2.
しかし、上記従来技術は、非透過型のメガネ型端末を前提としており、装着者自身の眼で周囲の状況を把握することができない。メガネ型端末に組み込まれたカメラの画像を介して周囲の状況を把握することは可能であるが、バッテリー切れや故障の際に視界が失われることを考慮すると、安全性の面から屋外で使うのは現実的でない。したがって、従来技術では使用環境が制限されてしまい、ユーザの利便性が低いという問題がある。
本発明が解決しようとする課題は、ユーザの利便性と操作性に優れた表示装置、画像表示システムおよび情報処理方法を提供することである。
実施形態の表示装置は、投射部と光学部材と第1取得部とを備える。投射部は、投射用画像の情報を含む光を投射する。光学部材は、表示面へのタッチ操作を検出可能な第1検出部と、検出したタッチ操作に応じて表示用画像のうちの少なくとも一部の第1画像を表示する表示部とを有する情報処理装置からの光を透過させる一方、入射した投射用画像の情報を含む光を反射させる。第1取得部は、表示用画像のうち第1画像の少なくとも一部と重ならない非重畳領域を含む第2画像に対して、光学部材を透過する情報処理装置からの光と、光学部材で反射する投射用画像の情報を含む光とから、表示部の周囲に非重畳領域が配置された状態が観察されるよう、表示部の位置に基づく変換を施すことで得られた投射用画像を取得する。
実施形態の画像表示システムの構成例を示す図。 第1実施形態の画像表示システムの機能構成の一例を示す図。 第1実施形態の第1画像と第2画像の一例を示す図。 第1実施形態のメガネ型端末の各構成要素の配置の一例を示す図。 第1実施形態の検出部による検出方法を説明するための図。 第1実施形態の光学部材を介して観察される外側領域の反射像を示す図。 第1実施形態の携帯端末のハードウェア構成の一例を示す図。 第1実施形態の携帯端末の動作例を示すフローチャート。 第1実施形態のメガネ型端末の動作例を示すフローチャート。 変形例の画像表示システムの機能構成の一例を示す図。 変形例の画像表示システムの機能構成の一例を示す図。 変形例の画像表示システムの機能構成の一例を示す図。 変形例の画像表示システムの機能構成の一例を示す図。 変形例の画像表示システムの機能構成の一例を示す図。 第2実施形態の画像表示システムの機能構成の一例を示す図。 変形例の画像表示システムの機能構成の一例を示す図。 第3実施形態の画像表示システムの機能構成の一例を示す図。 第3実施形態の縁取り領域の一例を示す図。 変形例の画像表示システムの機能構成の一例を示す図。 第4実施形態の画像表示システムの機能構成の一例を示す図。 変形例の画像表示システムの機能構成の一例を示す図。 第5実施形態の画像表示システムの機能構成の一例を示す図。 変形例の画像表示システムの機能構成の一例を示す図。
以下、添付図面を参照しながら、本発明に係る表示装置、画像表示システムおよび情報処理方法の実施形態を詳細に説明する。
(第1実施形態)
図1は、本実施形態の画像表示システム1の概略構成例を示すブロック図である。図1に示すように、画像表示システム1は、携帯端末2と、メガネ型端末3とを備える。携帯端末2とメガネ型端末3は、有線あるいは無線を介して、直接的または間接的に、相互に通信することが可能である。携帯端末2とメガネ型端末3との間の通信方法は任意であり、いずれの通信方法を用いても構わないものとする。
携帯端末2は、タッチ操作が可能な後述のタッチパネル4を少なくとも有する端末であり、例えば携帯電話、スマートフォン、タブレットなどのモバイルデバイスや、腕時計型端末やネックレス型端末などのウェアラブルデバイスなどの、ユーザが所持可能な端末で構成され得る。この例では、携帯端末2は、請求項の「情報処理装置」に対応していると考えることができる。
メガネ型端末3は、ユーザの頭部に装着されるとともに、小型のディスプレイに表示する画像をユーザの眼前の光学系に投射することで当該画像をユーザに提示することが可能な表示装置である。メガネ型端末3は、非透過型と透過型の2種類に大別されるが、ここでは後者の透過型に限定される。透過型は小型であることが多いが、大型のものであっても構わない。また、メガネ型端末3には片方の眼にだけ情報を表示する単眼型と、両方の眼に情報を表示する両眼型が存在するが、ここでは何れを用いても構わない。この例では、メガネ型端末3は、請求項の「表示装置」に対応していると考えることができる。
図2は、携帯端末2およびメガネ型端末3の各々の機能構成の一例を示す図である。図2に示すように、携帯端末2は、タッチパネル4と、生成部22と、変換部23とを備える。
タッチパネル4は、第1検出部50と、表示部60とを備える。第1検出部50は、表示面(タッチパネル4(表示部60)が有する、画像を表示する面)へのタッチ操作を検出することができる。この例では、第1検出部50は、請求項の「第1検出部」または「検出部」に対応している。表示部60は、第1検出部50が検出したタッチ操作に応じて、表示用画像のうちの少なくとも一部の第1画像を表示する。表示部60の表示方式は任意であり、例えば表示部60は、液晶や有機ELなどの直視型のディスプレイ装置だけでなく、プロジェクタなどの投射型のディスプレイ装置であってもよい。また、タッチ操作の検出方法は任意であり、静電容量方式、抵抗膜方式(感圧式)に限らず、他の検出方法を用いた検出装置を採用することもできる。タッチパネル4(第1検出部50)は、ユーザのタッチ操作を検出した場合、その検出したタッチ操作を示す操作情報を、生成部22へ供給する。
なお、本明細書における「タッチ操作」には、ユーザが、自身の指を表示面に接触させる操作だけでなく、ペンなどの入力デバイスを表示面に接触させる操作も含まれ得る。
生成部22は、第1検出部50から受け取った操作情報と、予め用意された表示用画像とに基づいて、第1画像と、表示用画像のうち第1画像の少なくとも一部と重ならない非重畳領域を含む第2画像とを生成する。本実施形態では、非重畳領域とは、表示用画像のうち第1画像の外側の領域(表示用画像のうち第1画像以外の領域、以下の説明では、「外側領域」と称する場合がある)である。生成部22により生成された第1画像はタッチパネル4(表示部60)へ供給される。そして、表示部60は、生成部22により生成された第1画像を表示する。
なお、この例では、表示用画像は、表示部60では表示し切れないサイズの画像であることを前提として説明する。生成部22が表示用画像を取得する方法は任意であり、例えば生成部22は、サーバ装置などの外部装置から表示用画像を取得することもできるし、表示用画像が予め格納された不図示のメモリにアクセスして表示用画像を取得することもできる。
例えば、第1検出部50により検出されたタッチ操作が、表示部60に表示し切れていない部分を表示部60に表示するために表示用画像を上下左右の何れかに移動させるスクロールを表している場合は、生成部22は、当該操作情報に応じて表示用画像をスクロールさせて、表示部60に表示すべき画像(第1画像)を生成する。また、例えば第1検出部50により検出されたタッチ操作が、現在、表示部60に表示されている画像の拡大縮小を表している場合は、生成部22は、検出されたタッチ操作に応じて、現在、表示部60に表示されている画像を拡大または縮小して、表示部60に表示すべき画像(第1画像)を生成する。さらに、例えば第1検出部50により検出されたタッチ操作が、所定の情報を閲覧可能なウェブページへ移動するためのURLリンクの選択を表している場合は、生成部22は、リンク先のウェブページの画像を、表示部60に表示すべき画像(第1画像)として生成するという具合である。
以下の説明では、一例として、図3の(a)に示すようなテキストを表す表示用画像(コンテンツ)が与えられた場合を想定する。生成部22は、図3の(b)に示すような画像を、第1画像として生成する。また、生成部22は、図3の(c)に示すような、表示用画像のうち第1画像の外側の領域(表示部60に表示し切れなかった領域、非重畳領域に相当)を含む第2画像を生成する。この例では、第2画像は、表示用画像のうち第1画像に対応する領域の輝度値(画素値)が予め定められた閾値(この例では「黒」に相当する輝度値)以下に設定された画像である。
次に、携帯端末2の変換部23を説明する前に、メガネ型端末3の構成を説明する。図2に示すように、メガネ型端末3は、第2検出部31と、光学部材32と、投射部33とを備える。また、図4は、メガネ型端末3に含まれる各要素の配置の一例を示す模式図である。図4に示すように、メガネ型端末3は、検出部31、光学部材32、および、投射部33を保持するための保持部材40をさらに備える。
第2検出部31は、携帯端末2(表示部60)の位置を検出する。本実施形態では、第2検出部31は赤外線カメラで構成される。第2検出部31はユーザの視線と同じ方向を向いており、ユーザの視野とほぼ一致する範囲を撮影することができる。また、本実施形態では、図5の(a)に示すように、表示部60(タッチパネル4)の周囲には、可視光よりも波長が長い赤外光を発光する赤外線LEDマーカー28が少なくとも3つ配置されており、ユーザの視野に表示部60が存在する場合は、第2検出部31の撮影により、表示部60の周囲に配置された赤外線LEDマーカー28が映り込んだ画像を得ることができる。
例えばユーザの視野において、図5の(b)に示すように、携帯端末2が配置されている場合、第2検出部31の撮影により、図5の(c)に示すような3個の赤外線LEDマーカー28の配置を表す画像が得られる。例えば3個の赤外線LEDマーカー28のそれぞれが点滅するパターンを変える、あるいは点灯する光の周波数を変えることにより、3個の赤外線LEDマーカー28のそれぞれが、図5の(c)に示す画像上のどの位置に写っているかを識別(検出)することができる。第2検出部31は、3個の赤外線LEDマーカー28のそれぞれの位置を示す位置情報(この例では撮影により得られる画像内の座標値)を生成し、生成した位置情報を携帯端末2へ送信する。
メガネ型端末3の構成の説明を続ける。図2および図4に示す投射部33は、携帯端末2の変換部23から投射用画像を取得し、その取得した投射用画像の情報を含む光を、ユーザの眼前に配置された光学部材32へ投射する。投射用画像の具体的な内容については後述する。例えば投射部33は、投射用画像を表示するためのディスプレイ装置(不図示)と、ディスプレイ装置から射出される光を光学部材32へ導くためのレンズなどの光学系(不図示)とを含む。投射用画像を表示するためのディスプレイ装置の方式は任意であり、例えば液晶透過型のディスプレイ装置であってもよいし、有機EL型のディスプレイ装置であってもよい。また、これに限らず、例えば投射部33は、DMD(Digital Micromirror Device)パネルで構成されてもよい。
また、図4に示すように、光学部材32は、光学部材32を挟んでユーザの眼とは反対側の領域を示す外界からの光を透過させる一方、入射した投射用画像(投射部33によって投射された投射用画像)の情報を含む光を反射させる。投射用画像の具体的な内容については後述する。携帯端末2が、メガネ型端末3を装着したユーザの視野に存在する場合、光学部材32は、携帯端末2からの光(携帯端末2の実像を形成する光)を透過させる一方、入射した投射用画像の情報を含む光を反射させるという具合である。携帯端末2からの光と、投射用画像の情報を含む光とは、光学部材32の異なる面に入射し、光学部材32を透過する携帯端末2からの光、および、光学部材32で反射した投射用画像の情報を含む光の各々は、ユーザの眼に導かれる。この例では、光学部材32は、ハーフミラーで構成されているが、これに限られるものではない。なお、光学部材32の透過率(外界からの光を透過させる割合)、および、反射率(投射用画像の光を反射させる割合)の各々は、50%に限られるものではなく、表示部60や投射部33の性能に合わせて任意に設定することができる。
図2に戻り、携帯端末2の変換部23について説明する。変換部23は、前述の第2画像に対して、光学部材32を透過する携帯端末2からの光と、光学部材32で反射する投射用画像の情報を含む光とから、表示部60の周囲に前述の外側領域(表示用画像のうち第1画像の少なくとも一部と重ならない非重畳領域に相当)が配置された状態が観察されるよう、表示部60の位置に基づく変換を施すことで投射用画像を生成する。上記変換は、アフィン変換を含む幾何変換である。より具体的には以下のとおりである。
本実施形態では、変換部23は、メガネ型端末3の第2検出部31から前述の位置情報を取得し、その取得した位置情報から、メガネ型端末3に対する表示部60の相対的な位置と姿勢を計算する。なお、これに限らず、例えばメガネ型端末3の第2検出部31が、3個の赤外線LEDマーカー28のそれぞれの位置を示す位置情報から、メガネ型端末3に対する表示部60の相対的な位置と姿勢を計算し、その計算結果を変換部23へ送信する形態であってもよい。
変換部23により計算された、メガネ型端末3に対する表示部60の相対的な位置と姿勢は、光学部材32を介して観察される外側領域の反射像が、図6の(a)に示すような初期状態から、図6の(b)に示すようなマーカー配置(初期状態から少し傾いた状態の表示部60のマーカー配置)に合うようにアフィン変換するための変換行列として表すことができる。変換行列は、例えばARToolKitなどの既存のソフトウェアを利用して計算することができる。変換部23は、計算した変換行列を用いて、生成部22によって生成された第2画像をアフィン変換することにより、投射用画像を生成する。そして、生成した投射用画像をメガネ型端末3へ送信する。
メガネ型端末3の投射部33が、以上のようにして生成された投射用画像の情報を含む光を光学部材32へ投射することにより、図6の(c)に示すように、光学部材32を介して観察される表示部60の透過像(この例では、初期状態から少し傾いた状態の表示部60の透過像)と、光学部材32を介して観察される外側領域の反射像がつながって1つの大画面を構成しているように、ユーザに見せることができる。
なお、投射部33が、図6の(b)に対応する投射用画像を光学部材32へ投射する場合、投射用画像のうち、図6の(b)において黒く塗りつぶされた領域(第1画像を示す領域)に対応する領域からは光が投射されず、反射像が形成されないため、図6の(b)において黒く塗りつぶされた領域においては、ユーザは、光学部材32を透過する外界からの光により形成される透過像(この例では表示部60の透過像)を観察することになる。一方、投射用画像のうち、図6の(b)において黒く塗りつぶされた領域の外側の領域に対応する領域からは光が投射されて反射像が形成されるので、図6の(b)において黒く塗りつぶされた領域の外側の領域においては、ユーザは、光学部材32で反射する投射用画像の情報を含む光により形成される反射像を観察することになる。これにより、ユーザは、表示部60の透過像と、表示用画像のうち表示部60に表示し切れなかった外側の領域の反射像がつながって1つの大画面を構成しているように見ることができる。
以上のように、本実施形態では、メガネ型端末3の投射部33は、変換部23により生成された投射用画像を取得し、その取得した投射用画像の情報を含む光を光学部材32へ投射する機能を有している。この例では、投射部33は、請求項の「第1取得部」に対応する機能と、請求項の「投射部」に対応する機能とを有していると考えることができるが、これに限られるものではない。例えば投射部33とは別に、請求項の「第1取得部」に対応する機能が設けられる形態であってもよい。
また、図7は、携帯端末2のハードウェア構成の一例を示す図である。図7に示すように、携帯端末2は、CPU201と、ROM202と、RAM203と、メガネ型端末3と通信するための通信I/F204と、タッチパネル4とを備えている。上述の携帯端末2の生成部22および変換部23の各々の機能は、CPU201がROM202等に格納されたプログラムをRAM203上に読み出して実行することにより実現される。なお、これに限らず、例えば上述の携帯端末2の生成部22および変換部23の各々の機能のうちの少なくとも一部が専用のハードウェア回路(例えば半導体集積回路等)で実現される形態であってもよい。
なお、携帯端末2で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、携帯端末2で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。さらに、携帯端末2で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
次に、本実施形態の画像表示システム1の動作例を説明する。まず、図8を用いて、携帯端末2側の動作例を説明する。図8に示すように、まず第1検出部50が、タッチ操作を検出する(ステップS100)。次に、生成部22は、ステップS100で検出されたタッチ操作に応じて、前述の第1画像を生成する(ステップS101)。次に、生成部22は、ステップS100で検出されたタッチ操作に応じて、前述の第2画像を生成する(ステップS102)。次に、変換部23は、携帯端末2から前述の位置情報を取得する(ステップS103)。本実施形態では、前述のステップS100においてタッチ操作を検出したタッチパネル4は、メガネ型端末3(第2検出部31)に対して位置情報の送信を要求する。そして、上記ステップS103において、変換部23は、タッチパネル4からの要求に対する応答としての位置情報を、メガネ型端末3(第2検出部31)から取得することができる。なお、これに限らず、例えばメガネ型端末3の第2検出部31による検出は、所定の期間が経過するたびに行われ、第2検出部31による検出が行われるたびに、そのときの検出結果を示す位置情報が携帯端末2に送信されて不図示のメモリに順次に格納されていく形態であってもよい。この形態では、上記ステップS103において、変換部23は、不図示のメモリに格納された最新の位置情報を取得することができる。
次に、変換部23は、上記ステップS103で取得した位置情報に基づいて、ステップS102で生成された第2画像をアフィン変換することで、投射用画像を生成する(ステップS104)。この例では、変換部23は、上記ステップS102で生成された第2画像に対して、光学部材32を透過する携帯端末2からの光と、光学部材32で反射する投射用画像の情報を含む光とから、表示部60の周囲に前述の外側領域が配置された状態が観察されるよう、上記ステップS103で取得した位置情報に基づくアフィン変換を施すことで、投射用画像を生成する。次に、変換部23は、上記ステップS104で生成した投射用画像をメガネ型端末3へ送信する(ステップS105)。
この例では、携帯端末2は、表示部60の位置を取得するとともに、前述の第2画像に対して、光学部材32を透過する携帯端末2からの光と、光学部材32で反射する投射用画像の情報を含む光とから、表示部60の周囲に外側領域が配置された状態が観察されるよう、表示部60の位置に基づく変換を施すことで生成した投射用画像を、メガネ型端末3に投射させる制御を行っていると考えることもできる。
次に、図9を用いて、メガネ型端末3側の動作例を説明する。この例では、携帯端末2から位置情報の送信を要求された後のメガネ型端末3の動作例を説明する。まず、第2検出部31は、表示部60の位置を検出する(ステップS110)。前述したように、2検出部31は、ユーザの視野とほぼ一致する範囲を撮影し、表示部60の周囲に配置された3個の赤外線LEDマーカー28のそれぞれが、当該撮影により得られた画像上のどの位置に写っているかを検出する。そして、第2検出部31は、ステップS110の検出結果を示す位置情報を、携帯端末2へ送信する(ステップS111)。その後、投射部33は、携帯端末2により生成された投射用画像を取得する(ステップS112)。次に、投射部33は、ステップS112で取得した投射用画像の情報を含む光を光学部材32へ投射する(ステップS113)。
以上に説明したように、本実施形態のメガネ型端末3は透過型で構成され、メガネ型端末3の光学部材32は、携帯端末2からの光(外界からの光)を透過させてユーザの眼に導く一方、投射用画像の情報を含む光を反射させてユーザの眼に導く。そして、メガネ型端末3の投射部33は、表示用画像のうち第1画像の外側の領域を含む第2画像に対して、光学部材32を透過する携帯端末2からの光と、光学部材32で反射する投射用画像の情報を含む光とから、表示部60の周囲に外側領域が配置された状態が観察されるよう、表示部60の位置に基づく変換を施すことで得られた投射用画像を取得し、その取得した投射用画像の情報を含む光を光学部材32へ投射する。これにより、メガネ型端末3を装着したユーザは、表示部60の透過像と、表示用画像のうち表示部60に表示し切れなかった外側領域の反射像がつながって1つの大画面を構成しているように見ることができる。
また、本実施形態によれば、ユーザは、前述の光学部材32を介して、周囲の状況(外界の状況)を把握することができるので、メガネ型端末3の使用環境が屋内のみに制限されることはなく、従来技術に比べてユーザの利便性を向上させることが可能になる。また、本実施形態によれば、ユーザは、タッチパネル4の表示面(表示部60の表示面であると考えてもよい)に対するタッチ操作を行うことで、例えば表示用画像を上下左右の何れかに移動させて(スクロールさせて)、表示部60に表示される画像(第1画像)を切り替えながら、表示用画像の任意の位置を直接指し示すことができる。すなわち、本実施形態によれば、安全性と操作性に優れたメガネ型端末3を提供することが可能になる。
さらに、本実施形態によれば、ユーザは、光学部材32を介して表示部60の透過像を見ながら、表示面に対するタッチ操作を行うことができるので、従来技術のようにタッチパネルを有する携帯端末を可視光カメラで撮影した画像を非透過型のメガネ型端末で見ながら、タッチパネルに対するタッチ操作を行う構成に比べて、違和感の少ない操作を行うことができる。したがって、従来技術に比べてユーザの操作性を一層向上させることが可能になる。また、前述したように、本実施形態のメガネ型端末3は非透過型で構成されるので、従来技術のように可視光カメラで表示部60(タッチパネル4)を撮影する必要はない。したがって、可視光カメラは必須ではないので、可視光カメラの使用が困難な状況(例えば公共の場等)であっても、メガネ型端末3の使用が制限されることはなく、ユーザの利便性をさらに向上させることができる。
(第1実施形態の変形例1)
前述の第1画像と前述の第2画像は、必ずしも同等の情報量を有する画像(同等の詳細度の画像)である必要は無い。例えば、光学部材32を介して見える反射像の表示能力に比べて、表示部60の表示能力が高い場合、より情報量が多い(より詳細度の高い)画像を表示部60に表示してもよい。例えば、地図を表すコンテンツが与えられた場合、地名や番地などが小さな文字で細かく記載された情報量が多い(詳細度の高い)地図を示す画像を第1画像として表示部60に表示し、主要な地名だけが大きな文字で記載された情報量が少ない(詳細度の低い)地図を示す画像を第2画像として投射することで、ユーザが全体像と詳細を同時に把握することが可能になる。なお、地図は一例であり、表示するコンテンツはその他のコンテンツであってもよい。
すなわち、前述の生成部22は、表示用画像を元に、第2画像に比べて情報量が多い(詳細度の高い)第1画像と、第2画像とを生成することもできる。
(第1実施形態の変形例2)
第1実施形態では、第2検出部31として赤外線カメラを用いて、赤外線カメラの撮影により得られた画像に映り込んだ赤外線マーカー28の配置、大きさ、歪みなどを解析することで、メガネ型端末3に対する表示部60の相対的な位置と姿勢を検出する方法を採用しているが、これに限られるものではない。例えば第2検出部31として、奥行き情報を計測して画像化するカメラ(デプスセンサ)を用いることもできる。
また、例えば第2検出部31として可視光カメラを用いてもよい。この場合、表示部60の周囲には、赤外線LEDマーカー28の代わりに、予め定められた固定パターンが配置され、ユーザの視野に表示部60が存在する場合は、可視光カメラの撮影により、表示部60の周囲に配置された固定パターンが映り込んだ画像を得ることができる。そして、この画像に映り込んだ固定パターンの配置、大きさ、歪みなどを解析することで、メガネ型端末3に対する表示部60の相対的な位置と姿勢を検出することもできる。
ただし、可視光カメラを採用する場合、プライバシーの問題等から公共の場では使い難いというケースも想定されるため、第2検出部31としては、可視光カメラ以外のセンサを用いることが好ましい。第2検出部31が、可視光カメラ以外のセンサで構成されることにより、公共の場であってもメガネ型端末3を使用することができるので、メガネ型端末3の使用環境に関する制限を一層緩和することができる。したがって、ユーザの利便性をさらに向上させることができる。また、例えば可視光カメラを採用する場合であっても、撮像した画像そのものを出力または保存する構成ではなく、撮像した画像から、求められた相対的な位置関係に関する情報のみを出力する構成であってもよい。
また、例えば上述の赤外線LEDマーカー28や固定パターンなどを配置せずに、第2検出部31の撮影により得られた画像の特徴量を用いて、メガネ型端末3に対する表示部60の相対的な位置と姿勢を検出することもできる。
(第1実施形態の変形例3)
例えば図10に示すように、前述の第2検出部31が携帯端末2側に搭載される形態であってもよい。この例では、第2検出部31は、表示部60に対するメガネ型端末3の相対的な位置と姿勢を検出し、表示部60に対するメガネ型端末3の相対的な位置と姿勢を示す第2位置情報(見方を変えれば、表示部60の位置を示す情報であると捉えることもできる)を生成する。なお、検出方法は限定せず、携帯端末2に組み込まれた可視光カメラでメガネ型端末3に備え付けられた固定パターンを撮影し、得られた画像を解析する方法でもよいし、携帯端末2に組み込まれた赤外線カメラでメガネ型端末3に備え付けられた赤外線LEDマーカーを撮影し、得られた画像を解析する方法でも構わない。
第1実施形態と同様に、変換部23は、生成部22により生成された第2画像に対して、光学部材32を透過する携帯端末2からの光と、光学部材32で反射する投射用画像の情報を含む光とから、表示部60の周囲に前述の外側領域が配置された状態が観察されるよう、第2検出部31により生成された第2位置情報に基づくアフィン変換を施すことで、投射用画像を生成する。そして、生成した投射用画像をメガネ型端末3へ送信する。メガネ型端末3の構成は、第2検出部31が設けられていないことを除いて第1実施形態の構成と同様である。
(第1実施形態の変形例4)
例えば図11に示すように、前述の変換部23がメガネ型端末3側に搭載される形態であってもよい。その他の構成は、第1実施形態と同様である。この例では、メガネ型端末3に設けられた変換部23が、請求項の「第1取得部」に対応する機能を有していると考えることができる。
(第1実施形態の変形例5)
前述の変形例4のさらなる変形例として、第1画像を生成する機能が携帯端末2側に搭載され、第2画像を生成する機能がメガネ型端末3側に搭載される形態とすることもできる。図12は、本変形例の携帯端末2およびメガネ型端末3の各々の機能構成の一例を示すブロック図である。図12に示すように、携帯端末2は、タッチパネル4と、第1画像生成部24と、表示用画像送信部25とを備える。タッチパネル4(第1検出部50)は、タッチ操作を検出した場合、その検出したタッチ操作を示す操作情報を、第1画像生成部24およびメガネ型端末3の各々へ供給する点で第1実施形態と相違する。
第1画像生成部24は、タッチパネル4(第1検出部50)から受け取った操作情報と、表示用画像とに基づいて第1画像を生成し、生成した第1画像をタッチパネル4(表示部60)へ供給する。表示用画像送信部25は、表示用画像をメガネ型端末3へ送信する。
また、図12に示すように、メガネ型端末3は、前述の第2検出部31、変換部23、光学部材32、および、投射部33に加えて、第2取得部34、第3取得部35、第2画像生成部36をさらに備える点で図11の構成と相違する。
第2取得部34は、表示用画像を取得する機能を有する。この例では、第2取得部34は、携帯端末2の表示用画像送信部25から送られてくる表示用画像を取得(受信)する機能を有するが、これに限らず、例えば外部装置から表示用画像を直接取得する形態であってもよい。この形態によれば、表示用画像送信部25を省略することができる。
第3取得部35は、前述の操作情報をタッチパネル4(第1検出部50)から取得する。第2画像生成部36は、第2取得部34により取得された表示用画像と、第3取得部35により取得された操作情報とに基づいて、第2画像を生成する。例えば、操作情報が示すタッチ操作が、表示部60に表示し切れていない部分を表示部60に表示するために表示用画像を上下左右の何れかに移動させるスクロールを表している場合は、第2画像生成部36は、当該操作情報に応じて表示用画像をスクロールさせて、表示用画像のうち表示部60に表示すべき画像(第1画像)に対応する領域の輝度値(画素値)を閾値(この例では「黒」に相当する輝度値)以下に設定することで、第2画像を生成するという具合である。第2画像生成部36により生成された第2画像は変換部23へ供給される。その他の構成は、図11の構成と同様である。
本変形例では、表示用画像を、予め携帯端末2からメガネ型端末3へ転送しておき、以降は、第1検出部50により検出されたタッチ操作を示す操作情報をメガネ型端末3へ転送するだけで済むので、第1検出部50によりタッチ操作が検出されるたびに、検出されたタッチ操作に応じて生成された投射用画像をメガネ型端末3へ転送する形態に比べて、通信量を大幅に低減することができる。これにより、タッチ操作に応じて表示部60の透過像が更新されるタイミングに比べて、当該タッチ操作に応じて投射用画像の反射像が更新されるタイミングが遅れることを大幅に軽減できる。
なお、この例においても、メガネ型端末3に設けられた変換部23は、請求項の「第1取得部」に対応する機能を有していると考えることができる。
(第1実施形態の変形例6)
前述の変形例4のさらなる変形例として、例えば図13に示すように、前述の第2検出部31が携帯端末2側に搭載される形態であってもよい。本変形例における第2検出部31の機能や動作は前述の変形例3と同様である。また、本変形例における変換部23の機能や動作は前述の変形例4と同様である。
(第1実施形態の変形例7)
前述の変形例5のさらなる変形例として、例えば図14に示すように、前述の第2検出部31が携帯端末2側に搭載される形態であってもよい。本変形例における第2検出部31の機能や動作は前述の変形例3と同様である。その他の構成は、前述の変形例5と同様である。
(第2実施形態)
次に、第2実施形態について説明する。第2実施形態の画像表示システム1は、メガネ型端末3と表示部60との位置関係が、特定の基準を満たさない場合は、前述の投射用画像を投射しない制御を行う判定部をさらに備える。以下、具体的な内容を説明する。なお、前述の第1実施形態と共通する部分については適宜に説明を省略する。
図15は、第2実施形態の携帯端末2およびメガネ型端末3の各々の機能構成の一例を示す図である。図15に示すように、携帯端末2は判定部240をさらに有している点で前述の第1実施形態と相違する。判定部240は、投射用画像を生成するための前述のアフィン変換に用いられるアフィン変換行列における並進量が予め定められた閾値未満の場合は、表示部60(携帯端末2)は視野内に存在すると判定し、上記特定の基準を満たすと判定する。一方、判定部240は、上記アフィン変換行列における並進量が予め定められた閾値以上の場合は、表示部60は視野内に存在しないと判定し、上記特定の基準を満たさないと判定する。
また、判定部240は、上記アフィン変換行列における回転量が予め定められた閾値未満の場合は、ユーザと表示部60とが互いに真正面から相対している(正対している)と判定し、上記特定の基準を満たすと判定する。一方、判定部240は、上記アフィン変換行列における回転量が予め定められた閾値以上の場合は、ユーザと表示部60とが互いに真正面から相対していない(正対していない)と判定し、上記特定の基準を満たさないと判定する。
判定部240により上記特定の基準を満たすと判定された場合、携帯端末2およびメガネ型端末3の各々は、前述の第1実施形態と同様に動作する。一方、判定部240は、上記特定の基準を満たさないと判定した場合、ユーザが表示部60を見ていないと解釈して、前述の投射用画像を投射しない制御を行う。例えば判定部240は、生成部22に対して、第2画像の生成を停止することを指示するとともに変換部23への第2画像の供給を停止することを指示することができる。また、例えば判定部240は、変換部23、および、メガネ型端末3の投射部33の動作を停止する制御を行うこともできる。また、例えば判定部240は、生成部22に対して、表示用画像の全領域の輝度値を閾値(この例では「黒」に相当する輝度値)以下に設定した画像を第2画像として生成することを指示することもできる。要するに、判定部240は、メガネ型端末3と表示部60との位置関係が、上記特定の基準を満たさない場合は、前述の投射用画像を投射しない制御を行う機能を有する形態であればよい。
なお、本実施形態では、判定部240は、メガネ型端末3と表示部60との位置関係が上記特定の基準を満たすか否かを判定する機能と、前述の投射用画像を投射しない制御を行う機能とを兼ね備えているが、これらの機能が別々に(独立して)設けられる形態であってもよい。
本実施形態によれば、ユーザの視野内に携帯端末2が存在し、当該ユーザが携帯端末2の表示部60を正面から見ている場合に、当該ユーザに対して外側領域の反射像が提示されるので、例えば当該ユーザの視線が表示部60以外に向けられているときに、当該ユーザの視野が反射像によって不用意に遮られる危険性が減少する。これにより、ユーザの安全性を向上させることができる。また、画像表示システム1(特にメガネ型端末3)の消費電力を低減することもできる。
(第2実施形態の変形例1)
例えば判定部240は、メガネ型端末3に対する表示部60の相対的な位置と姿勢を示す情報(表示部60の位置を示す情報であると捉えることもできる)を変換部23から受け取り、この情報に基づいて、メガネ型端末3を装着したユーザの観察方向を表す仮想的な直線(予め設定された直線)と、表示部60の法線とのなす角度を計算することもできる。そして、上記角度が予め定められた閾値未満の場合は、ユーザと表示部60とが正対していると判定し、上記特定の基準を満たすと判定することもできる。一方、判定部240は、上記角度が予め定められた閾値以上の場合は、ユーザと表示部60とが正対していないと判定し、上記特定の基準を満たさないと判定することもできる。
(第2実施形態の変形例2)
例えば判定部240がメガネ型端末3側に搭載される形態であってもよい。例えば図11に示す構成に対して第2実施形態を適用することで、図16に示すような構成とすることもできる。同様にして、他の実施形態および変形例のそれぞれが示す構成に対して第2実施形態を適用することで、メガネ型端末3が判定部240を備える構成とすることもできる。要するに、メガネ型端末3が判定部240を備える形態とすることもできる。
(第3実施形態)
次に、第3実施形態について説明する。前述したように、第2画像は、表示用画像のうち第1画像に対応する領域の輝度値が予め定められた閾値以下に設定された画像である。第3実施形態の画像表示システム1は、第2画像のうち第1画像に対応する領域における周縁部分の輝度値を、上記閾値よりも大きい値に設定する境界処理部をさらに備える。以下、具体的な内容を説明する。なお、前述の第1実施形態と共通する部分については適宜に説明を省略する。
図17は、第3実施形態の携帯端末2およびメガネ型端末3の各々の機能構成の一例を示す図である。図17に示すように、携帯端末2は境界処理部250をさらに有している点で前述の第1実施形態と相違する。境界処理部250は、生成部22によって生成された第2画像を受け取り、第2画像のうち第1画像に対応する領域(この例では、第2画像のうち黒く塗りつぶされた領域)の上端、下端、左端および右端のそれぞれに対して、輝度値を高めた縁取り領域を追加する。例えば図3の(c)に示す第2画像に対して、図18に示すような、灰色(図8ではドットの集合で表示)に相当する輝度値(「黒」に相当する輝度値を示す閾値よりも高い輝度値の一例)が設定された縁取り領域を追加することができる。そして、境界処理部250は、縁取り領域を追加した第2画像を変換部23へ供給する。その他の内容は前述の第1実施形態と同様である。
以上のように、本実施形態では、境界処理部250が、第2画像に対して縁取り領域を追加する処理を行うことにより、表示部60の透過像の周縁部分(反射像との境界部分)を半透明な状態にして、ユーザに見せることができる。これにより、第2検出部31における検出誤差や、変換部23における計算誤差などによって、透過像と反射像とのつなぎ目がずれてしまったとしても、そのずれをユーザに視認させにくくすることができる。
(第3実施形態の変形例)
例えば境界処理部250がメガネ型端末3側に搭載される形態であってもよい。例えば図11に示す構成に対して第3実施形態を適用することで、図19に示すような構成とすることもできる。同様にして、他の実施形態および変形例のそれぞれが示す構成に対して第3実施形態を適用することで、メガネ型端末3が境界処理部250を備える構成とすることもできる。要するに、メガネ型端末3が境界処理部250を備える形態とすることもできる。
(第4実施形態)
次に、第4実施形態について説明する。第4実施形態の画像表示システム1は、表示部60の透過像の見え方(画像の見た目を表す画質)と、投射用画像の反射像の見え方とが揃うように、メガネ型端末3および携帯端末2のうちの少なくとも一方の光源の輝度(明るさ)、または、第1画像および第2画像のうちの少なくとも一方の階調を制御する色制御部をさらに備える。以下、具体的な内容を説明する。なお、前述の第1実施形態と共通する部分については適宜に説明を省略する。
図20は、第4実施形態の携帯端末2およびメガネ型端末3の各々の機能構成の一例を示す図である。図20に示すように、携帯端末2は色制御部260をさらに有している点で前述の第1実施形態と相違する。色制御部260は、周囲の環境の輝度(明るさ)を検出し、その輝度に基づいて、表示部60または投射部33の光源(例えば液晶ディスプレイの場合はバックライトが光源となり、有機ELディスプレイの場合は、ディスプレイパネル自体が光源であると考えることができる)の輝度(明るさ)を調整することにより、透過像の輝度と反射像の輝度とを近づけることができる。または、色制御部260は、表示部60の透過像の色味と、投射用画像の反射像の色味とを揃えるために、第1画像の階調または第2画像の階調を調整することを生成部22に対して指示することもできる。あるいは、色制御部260は、表示部60の透過像の色味および輝度と、投射用画像の反射像の色味および輝度とを揃えるために、周囲の環境の輝度に基づいて、表示部60または投射部33の光源の輝度を調整するとともに、第1画像の階調または第2画像の階調を調整することを生成部22に対して指示することもできる。
要するに、色制御部260は、表示部60の透過像の見え方と、投射用画像の反射像の見え方とが揃うように、メガネ型端末3および携帯端末2のうちの少なくとも一方の光源の輝度、または、第1画像および第2画像のうちの少なくとも一方の階調を制御する形態であればよい。本実施形態によれば、透過像の見え方と反射像の見え方とが乖離することを低減できるので、メガネ型端末3を装着したユーザに対して、透過像と反射像とがより自然な形でつながった画面を提示することが可能になる。
なお、これに限らず、例えば表示部60の透過像の見え方と、投射用画像の反射像の見え方とを異ならせる形態であってもよい。例えばメガネ型端末3側の省電力化のために、第2画像を構成する複数の画素の各々の階調を反転(いわゆるネガポジ変換)させた画像を、投射用画像として投射する形態であってもよい。
(第4実施形態の変形例)
例えば色制御部260がメガネ型端末3側に搭載される形態であってもよい。例えば図2に示す構成に対して第4実施形態を適用することで、図21に示すような構成とすることもできる。同様にして、他の実施形態および変形例のそれぞれが示す構成に対して第4実施形態を適用することで、メガネ型端末3が色制御部260を備える構成とすることもできる。要するに、メガネ型端末3が色制御部260を備える形態とすることもできる。
(第5実施形態)
次に、第5実施形態について説明する。第5実施形態の画像表示システム1は、タッチ操作に応じて表示部60の透過像が更新されるタイミングと、投射用画像の反射像が更新されるタイミングとが揃うように、第1画像を更新するタイミングまたは第2画像を更新するタイミングを制御する更新制御部をさらに備える。以下、具体的な内容を説明する。なお、前述の第1実施形態と共通する部分については適宜に説明を省略する。
図22は、第5実施形態の携帯端末2およびメガネ型端末3の各々の機能構成の一例を示す図である。図22に示すように、携帯端末2は更新制御部270をさらに有している点で前述の第1実施形態と相違する。更新制御部270は、タッチ操作に応じて第1画像を更新するタイミングと、当該タッチ操作に応じて第2画像を更新するタイミングとをずらすように、生成部22に対して指示する。例えば、携帯端末2からメガネ型端末3への画像通信(投射用画像の転送)による遅延で、表示部60の透過像が更新されるタイミングに比べて投射用画像の反射像が更新されるタイミングが遅れる場合は、更新制御部270は、第1画像を更新するタイミングを遅らせるよう、生成部22に対して指示する。あるいは、更新制御部270は、第1検出部50において検出されたタッチ操作の時系列データから、カルマンフィルタなどを用いて次のユーザの動きを予測し、その予測結果から、第2画像を更新するタイミングを早めるよう、生成部22に対して指示することもできる。
要するに、更新制御部270は、タッチ操作に応じて表示部60の透過像が更新されるタイミングと、投射用画像の反射像が更新されるタイミングとが揃うように、第1画像を更新するタイミングまたは第2画像を更新するタイミングを制御する形態であればよい。本実施形態によれば、タッチ操作に応じて透過像が更新されるタイミングと、当該タッチ操作に応じて反射像が更新されるタイミングとのずれを小さくすることができるので、透過像と反射像とのつなぎ目をユーザに視認させにくくすることができる。
(第5実施形態の変形例)
例えば更新制御部270がメガネ型端末3側に搭載される形態であってもよい。例えば図2に示す構成に対して第5実施形態を適用することで、図23に示すような構成とすることもできる。同様にして、他の実施形態および変形例のそれぞれが示す構成に対して第5実施形態を適用することで、メガネ型端末3が更新制御部270を備える構成とすることもできる。要するに、メガネ端末3が更新制御部270を備える形態とすることもできる。
以上、本発明の実施形態を説明したが、上述の実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら新規な実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
なお、以上の各実施形態および各変形例は、任意に組み合わせることが可能である。
1 画像表示システム
2 携帯端末
3 メガネ型端末
4 タッチパネル
22 生成部
23 変換部
31 第2検出部
32 光学部材
33 投射部
50 第1検出部
60 表示部
240 判定部
250 境界処理部
260 色制御部
270 更新制御部

Claims (14)

  1. 投射用画像の情報を含む光を投射する投射部と、
    表示面へのタッチ操作を検出可能な第1検出部と、検出した前記タッチ操作に応じて、表示用画像のうちの少なくとも一部の第1画像を表示する表示部と、を有する情報処理装置からの光を透過させる一方、入射した前記投射用画像の情報を含む光を反射させる光学部材と、
    前記表示用画像のうち前記第1画像の少なくとも一部と重ならない非重畳領域を含む第2画像に対して、前記光学部材を透過する前記情報処理装置からの光と、前記光学部材で反射する前記投射用画像の情報を含む光とから、前記表示部の周囲に前記非重畳領域が配置された状態が観察されるよう、前記表示部の位置に基づく変換を施すことで得られた前記投射用画像を取得する第1取得部と、を備える、
    表示装置。
  2. 前記非重畳領域は、前記表示用画像のうち前記第1画像の外側の領域である、
    請求項1に記載の表示装置。
  3. 前記表示装置と前記表示部との位置関係が、特定の基準を満たさない場合は、前記投射用画像を投射しない制御を行う判定部をさらに備える、
    請求項1に記載の表示装置。
  4. 前記変換はアフィン変換であり、
    前記判定部は、前記アフィン変換に用いられるアフィン変換行列における並進量が予め定められた閾値以上の場合は、前記特定の基準を満たさないと判定する、
    請求項3に記載の表示装置。
  5. 前記変換はアフィン変換であり、
    前記判定部は、前記アフィン変換に用いられるアフィン変換行列における回転量が予め定められた閾値以上の場合は、前記特定の基準を満たさないと判定する、
    請求項3に記載の表示装置。
  6. 前記判定部は、前記表示部の位置に基づいて、ユーザの観察方向を表す仮想的な直線と、前記表示部の法線とのなす角度を求め、前記角度が予め定められた閾値以上の場合は、前記特定の基準を満たさないと判定する、
    請求項3に記載の表示装置。
  7. 前記第2画像は、前記表示用画像のうち前記第1画像に対応する領域の輝度値が予め定められた閾値以下に設定された画像であり、
    前記第2画像のうち前記第1画像に対応する領域における周縁部分の輝度値を、前記閾値よりも大きい値に設定する境界処理部をさらに備える、
    請求項2に記載の表示装置。
  8. 前記表示部の透過像の見え方と、前記投射用画像の反射像の見え方とが揃うように、前記表示装置および前記情報処理装置のうちの少なくとも一方の光源の輝度、または、前記第1画像および前記第2画像のうちの少なくとも一方の階調を制御する色制御部をさらに備える、
    請求項1に記載の表示装置。
  9. 前記タッチ操作に応じて前記表示部の透過像が更新されるタイミングと、前記投射用画像の反射像が更新されるタイミングとが揃うように、前記第1画像を更新するタイミングまたは前記第2画像を更新するタイミングを制御する更新制御部をさらに備える、
    請求項1に記載の表示装置。
  10. 前記表示部の位置を検出するための第2検出部をさらに備え、
    前記検出部は、可視光カメラ以外のセンサで構成される、
    請求項1に記載の表示装置。
  11. 前記表示用画像を取得する第2取得部と、
    前記第1検出部で検出された前記タッチ操作を示す操作情報を取得する第3取得部と、
    前記表示用画像と前記操作情報とに基づいて前記第2画像を生成する第2画像生成部と、をさらに備え、
    前記第1取得部は、前記第2画像に対して前記変換を施すことで前記投射用画像を生成する、
    請求項1に記載の表示装置。
  12. 前記第1画像は、前記第2画像に比べて情報量が多い画像である、
    請求項1に記載の表示装置。
  13. 表示面へのタッチ操作を検出可能な検出部と、検出した前記タッチ操作に応じて、表示用画像のうちの少なくとも一部の第1画像を表示する表示部と、を有する情報処理装置と、表示装置とを備えるシステムであって、
    投射用画像の情報を含む光を投射する投射部と、
    前記情報処理装置からの光を透過させる一方、投射用画像の情報を含む光を反射させる光学部材と、
    前記表示用画像のうち前記第1画像の少なくとも一部と重ならない非重畳領域を含む第2画像に対して、前記光学部材を透過する前記情報処理装置からの光と、前記光学部材で反射する前記投射用画像の情報を含む光とから、前記表示部の周囲に前記非重畳領域が配置された状態が観察されるよう、前記表示部の位置に基づく変換を施すことで前記投射用画像を生成する変換部と、を備える、
    画像表示システム。
  14. 表示面へのタッチ操作を検出する検出ステップと、
    検出した前記タッチ操作に応じて表示用画像のうちの少なくとも一部の第1画像を表示する表示部の位置を取得する取得ステップと、
    前記表示用画像のうち前記第1画像の少なくとも一部と重ならない非重畳領域を含む第2画像に対して、前記表示部を有する情報処理装置からの光を透過させる一方で投射用画像の情報を含む光を反射させる光学部材を透過する前記情報処理装置からの光と、前記光学部材で反射する前記投射用画像の情報を含む光とから、前記表示部の周囲に前記非重畳領域が配置された状態が観察されるよう、前記表示部の位置に基づく変換を施すことで前記投射用画像を生成する生成ステップと、
    前記投射用画像を、前記光学部材を有する表示装置に投射させる制御を行う制御ステップと、を含む、
    情報処理方法。
JP2014055167A 2014-03-18 2014-03-18 表示装置、画像表示システムおよび情報処理方法 Pending JP2015176588A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014055167A JP2015176588A (ja) 2014-03-18 2014-03-18 表示装置、画像表示システムおよび情報処理方法
CN201510117659.XA CN104932675A (zh) 2014-03-18 2015-03-17 显示装置、图像显示系统以及信息处理方法
US14/659,941 US20150271457A1 (en) 2014-03-18 2015-03-17 Display device, image display system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014055167A JP2015176588A (ja) 2014-03-18 2014-03-18 表示装置、画像表示システムおよび情報処理方法

Publications (1)

Publication Number Publication Date
JP2015176588A true JP2015176588A (ja) 2015-10-05

Family

ID=54119872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014055167A Pending JP2015176588A (ja) 2014-03-18 2014-03-18 表示装置、画像表示システムおよび情報処理方法

Country Status (3)

Country Link
US (1) US20150271457A1 (ja)
JP (1) JP2015176588A (ja)
CN (1) CN104932675A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018143360A1 (ja) * 2017-02-03 2018-08-09 良夫 川又 相対位置検出システム及び画像表示システム
JP2019114050A (ja) * 2017-12-22 2019-07-11 セイコーエプソン株式会社 処理装置、表示システム、及びプログラム
CN110618527A (zh) * 2018-06-19 2019-12-27 苹果公司 具有可电调节光学层的电子设备
WO2023100012A1 (ja) * 2021-11-30 2023-06-08 株式会社半導体エネルギー研究所 表示システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6367166B2 (ja) * 2015-09-01 2018-08-01 株式会社東芝 電子機器及び方法
US9855664B2 (en) * 2015-11-25 2018-01-02 Denso Wave Incorporated Robot safety system
JP6828277B2 (ja) * 2016-06-09 2021-02-10 富士ゼロックス株式会社 クライアント装置、情報処理システム及びプログラム
JP6789377B2 (ja) * 2017-03-27 2020-11-25 サン電子株式会社 画像表示システム
JP6996114B2 (ja) * 2017-05-29 2022-01-17 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
CN117496511A (zh) * 2018-06-27 2024-02-02 株式会社Cybo 显示控制设备、显示控制方法以及显示控制程序

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267604A (ja) * 2005-03-24 2006-10-05 Canon Inc 複合情報表示装置
JP2010177788A (ja) * 2009-01-27 2010-08-12 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010237522A (ja) * 2009-03-31 2010-10-21 Brother Ind Ltd 画像提示システム及びこの画像提示システムに用いられるヘッドマウントディスプレイ
JP2011186856A (ja) * 2010-03-09 2011-09-22 Nec Corp ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
JP2012233962A (ja) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc 投影システム、投影装置、投影方法、および制御プログラム
JP2013113963A (ja) * 2011-11-28 2013-06-10 Seiko Epson Corp 透過型表示装置、及び操作入力方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267604A (ja) * 2005-03-24 2006-10-05 Canon Inc 複合情報表示装置
JP2010177788A (ja) * 2009-01-27 2010-08-12 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010237522A (ja) * 2009-03-31 2010-10-21 Brother Ind Ltd 画像提示システム及びこの画像提示システムに用いられるヘッドマウントディスプレイ
JP2011186856A (ja) * 2010-03-09 2011-09-22 Nec Corp ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
JP2012233962A (ja) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc 投影システム、投影装置、投影方法、および制御プログラム
JP2013113963A (ja) * 2011-11-28 2013-06-10 Seiko Epson Corp 透過型表示装置、及び操作入力方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018143360A1 (ja) * 2017-02-03 2018-08-09 良夫 川又 相対位置検出システム及び画像表示システム
JP2019114050A (ja) * 2017-12-22 2019-07-11 セイコーエプソン株式会社 処理装置、表示システム、及びプログラム
JP7013850B2 (ja) 2017-12-22 2022-02-01 セイコーエプソン株式会社 処理装置、表示システム、及びプログラム
CN110618527A (zh) * 2018-06-19 2019-12-27 苹果公司 具有可电调节光学层的电子设备
US11243403B2 (en) 2018-06-19 2022-02-08 Apple Inc. Electronic devices having electrically adjustable optical layers
WO2023100012A1 (ja) * 2021-11-30 2023-06-08 株式会社半導体エネルギー研究所 表示システム

Also Published As

Publication number Publication date
CN104932675A (zh) 2015-09-23
US20150271457A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
JP2015176588A (ja) 表示装置、画像表示システムおよび情報処理方法
US9921646B2 (en) Head-mounted display device and method of controlling head-mounted display device
US9360671B1 (en) Systems and methods for image zoom
US9864198B2 (en) Head-mounted display
TWI498771B (zh) 可辨識手勢動作的眼鏡
JP6264871B2 (ja) 情報処理装置および情報処理装置の制御方法
EP2978218B1 (en) Computer display device mounted on eyeglasses
US20130021374A1 (en) Manipulating And Displaying An Image On A Wearable Computing System
US20150009309A1 (en) Optical Frame for Glasses and the Like with Built-In Camera and Special Actuator Feature
KR102404790B1 (ko) 카메라의 초점을 변경하는 방법 및 장치
EP3847530B1 (en) Display device sharing and interactivity in simulated reality (sr)
US9798139B2 (en) Wearable electronic device and display method
JP2014142751A (ja) 表示装置、頭部装着型表示装置および表示装置の制御方法
KR20130034125A (ko) 증강현실 기능을 구비한 안경형 모니터
WO2018149267A1 (zh) 一种基于增强现实的显示方法及设备
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
CN112835445A (zh) 虚拟现实场景中的交互方法、装置及系统
US20240028177A1 (en) Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments
US20200073621A1 (en) Systems, Devices, Components and Associated Computer Executable Code For Providing Remote Viewing of a Display Associated with a Computational Device
WO2016006070A1 (ja) 携帯情報端末装置及びそれと連携するヘッドマウントディスプレイ
KR20130045002A (ko) 안경형 모니터
TWI492099B (zh) 可辨識手勢動作的眼鏡
US20240184499A1 (en) Information display apparatus and method
JP7031112B1 (ja) 眼鏡型端末
US20240103685A1 (en) Methods for controlling and interacting with a three-dimensional environment

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160412