JP7443819B2 - 画像表示装置、画像表示方法、および画像表示プログラム - Google Patents

画像表示装置、画像表示方法、および画像表示プログラム Download PDF

Info

Publication number
JP7443819B2
JP7443819B2 JP2020031345A JP2020031345A JP7443819B2 JP 7443819 B2 JP7443819 B2 JP 7443819B2 JP 2020031345 A JP2020031345 A JP 2020031345A JP 2020031345 A JP2020031345 A JP 2020031345A JP 7443819 B2 JP7443819 B2 JP 7443819B2
Authority
JP
Japan
Prior art keywords
mode
image display
image
operation target
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020031345A
Other languages
English (en)
Other versions
JP2021135738A (ja
Inventor
賢 富澤
博晃 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2020031345A priority Critical patent/JP7443819B2/ja
Priority to US17/185,998 priority patent/US11340736B2/en
Publication of JP2021135738A publication Critical patent/JP2021135738A/ja
Application granted granted Critical
Publication of JP7443819B2 publication Critical patent/JP7443819B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Description

本開示は、仮想的な入力を可能とする画像表示技術に関する。
キーボードやマウス、タッチパネルといった現実の入力デバイスに代えて、仮想的な入力デバイスを表示し、これに対して入力作業を可能にする仕組みが種々提案されている。例えば、下記特許文献1には、ジェスチャーにより手書き文字や図形を入力する情報処理装置が開示されている。この情報処理装置では、描画できるペンオンの状態とペンオフの状態とを切り替える必要があることから、ペン入力操作を行なう指やペンなどの操作対象までの距離を、超音波やカメラの自動焦点の技術を用いて測定し、操作対象までの距離が所定の条件を満たすかを判別して、ペンのオン・オフを切り替え、その状態を表示している。
特開2015-225374号公報
しかしながら、特許文献1の技術では、超音波の送受信時間の測定やカメラの自動焦点の技術による測距を行なうため、特別な機材が必要となったり、処理にかなりの時間を要し、操作対象の動きに対して、タイムラグが生じてしまったりする等の問題があった。
本開示は、以下の形態又は適用例として実現することが可能である。本開示の第1の態
様は、画像表示装置としての態様である。この画像表示装置は、外景の少なくとも一部を
表示領域として画像を表示する画像表示部と前記表示領域を含む領域を、撮像画像として
撮像する撮像部と前記撮像画像から、操作対象を、前記操作対象の色の領域として抽出す
る抽出部と前記抽出した色の領域の大きさに従って、前記操作対象による描画モードを変
更する描画モード変更部と前記変更された描画モードに従って、前記画像表示部における
画像表示を制御する制御部とを備え、前記描画モード変更部は、前記操作対象の色の範
囲の大きさが、予め定めた面積範囲である第1範囲に入っている場合は描画可能な第1モ
ードに、前記第1範囲に入っていない場合には、描画可能でない第2モードに、前記描画
モードを変更し、前記制御部は、前記第1モードでは、前記操作対象の動きに応じて描画
を行ない、前記第2モードでは、前記描画を行なわず、前記操作対象は、使用者の手指で
あり、前記予め定めた面積範囲は、使用者の体型によって異なる
また、本開示の第2の態様は、外景の少なくとも一部を表示領域として描画を行なう画像表示方法としての態様である。この画像表示方法は、前記表示領域を含む領域を撮像し、前記領域を撮像した撮像画像から、操作対象を、前記操作対象の色の領域として抽出し、前記抽出した色の領域の大きさに従って、前記操作対象による描画モードを変更し、前記変更された描画モードに従って、前記表示領域における画像表示を制御する。
更に、本開示の第3の態様は、コンビューターにより実行される画像表示プログラムとしての態様である。この画像表示プログラムは、外景の少なくとも一部を表示領域とし、表示領域を含む領域を撮像する機能と、前記領域を撮像した撮像画像から、操作対象を、前記操作対象の色の領域として抽出する機能と、前記抽出した色の領域の大きさに従って、前記操作対象による描画モードを変更する機能と、前記変更された描画モードに従って、前記表示領域における画像表示を制御する機能と、をコンピューターにより実現する。
実施形態における表示システムとしてのHMDの外観構成を示す説明図。 画像表示部が備える光学系の構成を示す要部平面図。 表示装置の信号処理回路の構成を示す概略構成図。 第1実施形態において、制御装置が実行する描画処理ルーチンを示すフローチャート。 初期表示の一例を示す説明図。 ツール選択処理ルーチンを示すフローチャート。 距離によって見える大きさが異なる様子を示す説明図。 操作対象が認識されていない場合の描画ツールの表示例を示す説明図。 描画モードサイズの一例を示す説明図。 操作対象の認識サイズが認識中モード2のサイズになった場合の描画ツールの表示例を示す説明図。 操作対象の認識サイズが描画モードのサイズになった場合の描画ツールの表示例を示す説明図。 操作対象を用いた描画の様子を示す説明図。 描画中に、操作対象の認識サイズが認識中モードのサイズ2になった場合の表示例を示す説明図。 第2実施形態の概略構成図。 描画中に、操作対象の認識サイズが認識中モードのサイズ1になった場合の表示例を示す説明図。 操作対象のサイズが描画モードのサイズから逸脱した際のガイダンスの表示例を示す説明図。 手を認識していない場合のガイダンスの表示の一例を示す説明図。 描画モード中に、操作対象の認識サイズが描画モードの上下限値に近づいた場合の表示例を示す説明図。 使用者の手にシールを貼って認識させる場合を示す説明図。
A.第1実施形態:
A-1.HMDの全体構成:
図1は、第1実施形態における表示システムとしてのHMD(頭部装着型表示装置、Head Mounted Display)100の外観構成を示す図である。HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる表示装置としての画像表示部20と、画像表示部20に表示する画像を生成する制御装置70と、を備える。画像表示部20は、画像表示以外にも、撮像部として働くビデオカメラや6軸センサーなどを搭載しているので、画像表示部20のうち、特に画像表示を行なっている部分を、第1表示部と呼ぶ。第1表示部については、後で説明する。他方、制御装置70は、画像表示部20と信号をやり取りして、センサーの値を読み込んだり、画像表示部20に画像を表示させるために必要な処理を行なう。制御装置70は、タッチパネル機能を有するディスプレイ73を備える。
この制御装置70は、後述するように、描画を行なうための各機能を実現する。従って、制御装置70は、抽出部、描画モード変更部、制御部として働く。このHMD100を装着した使用者は、第1表示部に表示される画像を視認しつつ、描画などの操作を行なうことができる。その際、制御装置70は、画像表示部20と協働し、操作対象の動きを認識して、描画を実現する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。
右保持部21および左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態における使用者の右側頭部に対応する位置まで延伸して設けられている。左保持部23は、前部フレーム27の端部ELから、画像表示部20の装着状態における使用者の左側頭部に対応する位置まで延伸して設けられている。
右導光板26および左導光板28は、前部フレーム27に設けられている。右導光板26は、画像表示部20の装着状態における使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態における使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。この連結位置は、画像表示部20の装着状態における使用者の眉間の位置に対応する。前部フレーム27には、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態において使用者の鼻に当接する鼻当て部が設けられていてもよい。この場合、鼻当て部と右保持部21と左保持部23とによって、画像表示部20を使用者の頭部に保持できる。また、右保持部21および左保持部23に対して、画像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合、ベルトによって画像表示部20を使用者の頭部に強固に保持できる。
右表示ユニット22は、右導光板26による画像の表示を行う。右表示ユニット22は、右保持部21に設けられ、画像表示部20の装着状態における使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を行う。左表示ユニット24は、左保持部23に設けられ、画像表示部20の装着状態における使用者の左側頭部の近傍に位置する。
本実施形態の右導光板26および左導光板28は、光透過性の樹脂等によって形成される光学部(例えばプリズムやホログラム)であり、右表示ユニット22および左表示ユニット24が出力する画像光を使用者の眼に導く。なお、右導光板26および左導光板28の表面には、調光板が設けられてもよい。調光板は、光の波長域により透過率が異なる薄板状の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、前部フレーム27の表面(使用者の眼と対向する面とは反対側の面)を覆うように配置される。調光板の光学特性を適宜選択することにより、可視光、赤外光、および紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26および左導光板28に入射し、右導光板26および左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22および左表示ユニット24がそれぞれ生成する画像光を、右導光板26および左導光板28に導き、この画像光によって虚像を使用者に視認させる(これを「画像を表示する」とも呼ぶ)。使用者の前方から右導光板26および左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光と、外光とが入射する。このため、使用者における虚像の視認性は、外光の強さに影響を受ける。
このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整することができる。典型的な例では、表示システムであるHMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を選択することができる。調光板を用いると、右導光板26および左導光板28を保護し、右導光板26および左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、あるいは、右導光板26および左導光板28のそれぞれに対して着脱可能としてもよい。また、複数種類の調光板を交換して着脱可能としてもよく、調光板を省略してもよい。
画像表示部20には、上述した画像表示に関する部材の他、撮像部として働くビデオカメラ61R,61L、内側カメラ62、照度センサー65、6軸センサー66、インジケーター67が設けられている。2台のビデオカメラ61R,61Lは、画像表示部20の前部フレーム27の上側に配置されている。2台のビデオカメラ61R,61Lは、本実施形態では、使用者のほぼ両眼に対応する位置に設けられているが、ビデオカメラ61R,61Lは、どこに設けられていてもよく、前部フレーム27の端部ER,ELにそれぞれ配置されていてもよい。
ビデオカメラ61R,61Lは、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。ビデオカメラ61R,61Lは、HMD100の表側方向、換言すれば、画像表示部20の装着状態において使用者が視認する視界方向の、少なくとも一部の外景(実空間)を撮像する。ビデオカメラ61R,61Lは、使用者の視界と重なる範囲または方向を撮像し、使用者が視認する方向を撮像する。本実施形態では、ビデオカメラ61R,61Lの画角の広さは、使用者が右導光板26および左導光板28を透過して視認可能な使用者の視界の全体を撮像するように設定される。ビデオカメラ61R,61Lの画角の広さを適宜設定可能な光学系を設けてもよい。また、本実施形態では、撮像部であるビデオカメラ61Rを用いた操作対象までの距離の認識は、二つのビデオカメラ61R,61Lが撮像した画像の視差を用いないので、ビデオカメラは、単眼、つまりビデオカメラ61Lはなくてもよい。単眼とすれば、ビデオカメラを一つにでき、装置構成を簡略化できる。また、撮像に関するソフトウェアも簡略化できる。単眼の場合、ビデオカメラ61Rは、画像表示部20の中央部に設けてもよい。
内側カメラ62は、ビデオカメラ61R,61Lと同様に、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。内側カメラ62は、HMD100の内側方向、換言すれば、画像表示部20の装着状態における使用者と対向する方向を撮像する。本実施形態の内側カメラ62は、使用者の右眼を撮像するための内側カメラと、左眼を撮像するための内側カメラと、を含んでいる。本実施形態では、内側カメラ62の画角の広さは、使用者の右眼または左眼の全体を撮像可能な範囲に設定される。内側カメラ62は、使用者の眼球、特に瞳孔の位置を検出し、両眼の瞳孔の位置から、使用者の視線の方向を算出するのに用いられる。もとより、内側カメラ62は、画角の広さを適宜設定可能な光学系を設けてもよく、使用者の瞳孔のみならず、更に広い領域を撮像することで、使用者の表情などを読取るのに用いてもよい。なお、内側カメラ62は設けなくてもよい。
照度センサー65は、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するように配置される。照度センサー65は、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67は、前部フレーム27の端部ERに配置される。LEDインジケーター67は、ビデオカメラ61R,61Lによる撮像を実行中に点灯して、撮像中であることを報知する。
6軸センサー66は、加速度センサーであり、使用者の頭部のXYZ方向(3軸)の移動量と、使用者頭部のXYZ方向に対する傾き(3軸)を検出する。XYZ方向は、Z方向が重力方向に沿った方向であり、X方向は、使用者の後から前に向かう方向、Y方向が使用者の左から右に向かう方向である。また、頭部の傾きは、XYZ方向の各軸(X軸,Y軸,Z軸)の周りの角度である。6軸センサー66からの信号を積分することで、初期位置からの使用者頭部の移動量と角度を知ることができる。
画像表示部20は、接続ケーブル40により、制御装置70と接続されている。接続ケーブル40は、左保持部23の先端から引き出され、中継コネクター46を介して、制御装置70に設けられたコネクター77に着脱可能に接続される。接続ケーブル40には、ヘッドセット30が含まれる。ヘッドセット30は、マイク63と使用者の左右の耳に装着される右イヤホン32および左イヤホン34が含まれる。ヘッドセット30は、中継コネクター46に接続されて、接続ケーブル40に一体化される。
制御装置70から画像を表示するための信号が、接続ケーブル40を介して画像表示部20に出力されると、画像表示部20は、右表示ユニット22および左表示ユニット24を用いて画像を形成する。使用者に画像を認識させる光学的な構成について説明する。図2は、画像表示部20が備える光学系の構成を示す要部平面図である。説明の便宜上、図2には使用者の右眼REおよび左眼LEを図示する。図示するように、右表示ユニット22と左表示ユニット24とは、左右対称に構成されている。
右眼REに虚像を視認させる構成として、右画像表示部としての右表示ユニット22は、OLED(Organic Light Emitting Diode)ユニット221と、右光学系251とを備える。OLEDユニット221は、画像光を発する。右光学系251は、レンズ群等を備え、OLEDユニット221が発する画像光Lを右導光板26へと導く。
OLEDユニット221は、OLEDパネル(以下、単にOLEDと略記する)223と、OLED223を駆動するOLED駆動回路(以下、単にR-CPLDと略記する)225とを有する。OLED223は、有機エレクトロルミネッセンスにより発光し、R(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子により構成される自発光型の表示パネルである。OLED223は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されている。
R-CPLD225は、制御装置70から送られる信号に従って、OLED223が備える発光素子の選択および通電を実行し、発光素子を発光させる。R-CPLD225は、OLED223の裏面、すなわち発光面の裏側に、ボンディング等により固定されている。R-CPLD225は、例えばOLED223を駆動する半導体デバイスで構成され、OLED223の裏面に固定される基板に実装されてもよい。なお、OLED223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成を採用してもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加えて、W(白)の光を放射する発光素子を備えるWRGB構成のOLED223が採用されてもよい。
右光学系251は、OLED223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射後、右導光板26から右眼REへと射出され、この画像光Lが右眼REの網膜で像を結ぶことで、使用者に虚像を視認させる。
左眼LEに虚像を視認させる構成として、左画像表示部としての左表示ユニット24は、OLEDユニット241と、左光学系252とを備える。OLEDユニット241は画像光を発する。左光学系252は、レンズ群等を備え、OLEDユニット241が発する画像光Lを左導光板28へと導く。OLEDユニット241は、OLED243と、OLED243を駆動するL-CPLD245を有する。各部の詳細は、OLEDユニット221、OLED223、R-CPLD225と同じである。左光学系252の詳細は右光学系251と同じである。
以上、図2を用いて説明したように、画像表示部20は、使用者の右左眼に画像光Lを導く光学系と、外光OLを導く光学系とを備える。このため、使用者の右左眼に画像光Lを導いて虚像を視認させる光学系を、以下の説明では、単に画像表示部200と呼ぶ。
以上説明した構成によれば、HMD100は、シースルー型の表示装置として機能することができる。すなわち使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。使用者の左眼LEには、ハーフミラー281で反射した画像光Lと、左導光板28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。この結果、使用者にとっては、右導光板26および左導光板28を透かして外景(実世界)が見えると共に、この外景に重なるようにして画像光Lによる虚像が視認される。つまり、HMD100の画像表示部20は、外景を透過することで使用者に対して虚像に加え外景を視認させる。
ハーフミラー261およびハーフミラー281は、右表示ユニット22および左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す。また、右光学系251および右導光板26を総称して「右導光部」とも呼び、左光学系252および左導光板28を総称して「左導光部」とも呼ぶ。右導光部および左導光部の構成は、上述した例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができる。例えば、右導光部および左導光部には、回折格子を用いてもよいし、半透過反射膜を用いてもよい。
A-2.制御装置70の構成:
次に、画像表示部20に各種信号を出力する制御装置70の構成について説明する。図3は、制御装置70および画像表示部20の内部構成を示すブロック図である。制御装置70は、既述したディスプレイ73に加えて、通信部75、CPU80、タッチパネルドライバー76、ディスプレイドライバー78、入出力インターフェース(以下、単に入出力I/Fと略記する)79等を備える。なお、70の駆動電力は図視しないバッテリーから各部に供給される。
ディスプレイ73は、画像をフルカラーで表示する表示部71と、表示部71を使用者が指先等で触ったときに、その位置と強さを検出するタッチパネル72とを備える。この表示部71は、CPU80からの信号を受けたディスプレイドライバー78により駆動される。また、タッチパネル72は、タッチパネルドライバー76に接続されており、タッチパネルドライバー76による駆動信号を受けて、ディスプレイ73におけるタッチ位置の検出をダイナミックに行ない、検出したタッチ位置と強さをタッチパネルドライバー76を介してCPU80に出力する。
通信部75は、携帯端末110と通信して、画像や音声を含む映像信号を受け取る。通信方式としては、WiFi(登録商標)やBluetooth(登録商標)などどのようなものでも差し支えない。また、有線により携帯端末110から映像信号を受け取るようにしてもよい。なお、HMD100は、携帯端末110とやり取りする機能を有しなくてもよい。制御装置70に設けられた入出力I/F79は、いわゆるType-Cの規格に準拠したコネクター形状およびシリアル通信によりデータの入出力が可能である。
これら各部を統御するCPU80は、内部にメモリー85を備え、このメモリー85に記憶したプログラムを実行することにより、オペレーティングシステム(以下、単にOSと略記する)81や、入力イベント検出部82などの機能を実現する。本実施形態で用いるOS81は、携帯端末110などで用いられ汎用のOSと基本機能を同一としている。相違点は、ビデオカメラ61R,61Lを用いて外景を撮像する機能や、内側カメラ62を用いて視線を検出する機能、画像表示部200と共にディスプレイ73に画像を表示する機能などが拡張されていることである。従って、OS81用に作られたアプリケーションプログラムを、そのまま、あるいは僅かな修正により、制御装置70で実行することができる。こうしたアプリケーションプログラムとしては、ゲームや、各種の作業支援を行なうアプリケーションプログラム等が考えられる。これらを対象アプリ83と呼ぶ。また、本実施形態では、対象アプリ83とは別に、各種の入力方法を提供するユーザーインタフェース支援アプリケーションプログラム(以下、単にUIアプリと呼ぶ)84を、対象アプリ83と同時に実行可能である。
CPU80は、OS81の管理の下で、画像表示部200に表示させようとする画像を、入出力I/F79を介して、画像表示部20に出力する。こうした映像信号の入出力と共に、CPU80は、ディスプレイ73を入力部として扱い、入力に必要なボタンやキー、あるいはフィールドなどの画像を、ディスプレイドライバー78を介して表示部71に表示させ、この表示に応じた使用者のタッチパネル72へのタッチの位置と強さを、タッチパネルドライバー76を介して入力する。タッチパネルドライバー76が検出したタッチの位置と強さは、入力イベント検出部82に入力され、UIアプリ84から受け取った入力用のユーザーインタフェースの状況と照合され、OS81により解釈されて、対象アプリ83に出力される。
対象アプリ83が描画を行なう描画アプリケーションプログラムの場合、CPU80は、プログラムを実行することにより、描画のための操作対象(例えば手など)の色の領域を抽出する抽出部や、操作対象による描画モードを変更する描画モード変更部や、画像表示部200における画像表示を制御する制御部として機能する。描画アプリケーションプログラムが動作した場合のこれら各部の働きについては、後で詳しく説明する。
画像表示部20は、図3下段に示した様に、大きくはベーシックボード35、光学モジュールボード36、カメラモジュールボード37から構成されている。ベーシックボード35は、制御装置70の入出力I/F79との間で映像信号のやり取りを行なうインターフェース部(以下、単にI/F部という)91,I/F部91との間で信号を分離し仲介するHUB92、HUB92からの信号の一方を取り込んで動作するMCU94、MCU94による処理により映像信号を処理し、光学モジュールボード36に出力するディスプレイブリッジ93を搭載している。
HUB92からのもう一つの信号線は、カメラモジュールボード37に接続され、カメラモジュールボード37に搭載されたビデオカメラ61R,61Lおよび内側カメラ62からの映像信号を、HUB92およびI/F部91を介して制御装置70に出力するのに用いられている。CPU80は、ビデオカメラ61R,61Lからの映像を解析し、描画のために必要な情報を取得するといった処理も可能である。
光学モジュールボード36は、FPGA95と、既述したR-CPLD225,L-CPLD245と、6軸センサー66とを搭載している。FPGA95は、ベーシックボード35のディスプレイブリッジ93と接続され、ディスプレイブリッジ93から受け取った映像信号を、右眼用と左眼用の映像信号に分離し、更にRGBの信号に変換する。R-CPLD225,L-CPLD245は、このFPGA95からの信号に従って、OLED223,243を駆動する。6軸センサー66は、ベーシックボード35上のディスプレイブリッジ93に接続され、20の姿勢(3軸)と各軸方向への加速度(3軸)を、出力する。
姿勢を示す3軸は、重力方向をZ軸方向(上下方向)、Z軸方向に直交し画像表示部20を使用者が装着した状態(図1)での右眼から左眼方向をY軸方向(左右方向)、Z軸およびY軸に直交する方向をX方向(前後方向)とする姿勢である。もとより、人の頭部は、骨格の構造上、頭部を、おおよそZ軸を中心に右眼側(図1矢印RT側)に回転させる右側回転姿勢、同じく左眼側(図1矢印LT側)に回転させる左側回転姿勢、上方側(図1矢印UP側)に回転させる上方回転姿勢、下方側(図1矢印DW側)に回転させる下方回転姿勢、の4つを取りやすいことから、6軸センサー66からの信号を画像表示部20側で処理し、上記4つの姿勢として出力するように、画像表示部20を構成しても良い。加速度は、X,Y,Zの各軸方向の加速度である。
A-3.描画の態様:
使用者は、HMD100を頭部に装着した状態で、画像表示部200を見ながら描画することができる。この手法を、図4に示したフローチャートを参照しつつ説明する。使用者は、まず制御装置70のディスプレイ73に表示されたアプリケーションプログラムのアイコンの一つをタップして、描画用の対象アプリ83を起動する。描画用の対象アプリ83が起動されると、図4に示した処理が起動され、まず、初期表示処理が行なわれる(ステップS100)。初期表示処理は、描画のための初期表示を行なう処理である。
本実施形態では、初期表示処理により、図5Aに例示するように、画像表示部200に、描画のためのツールのアイコンを含むツールバーTBが表示される。ツールバーTBには、この例では、描画のためのツールとして、ペンツールPT、マーカーMT、消しゴムET、投げ縄STに対応するアイコンが表示される。そこで、使用者は、まずツールを選択する。これがツール選択処理(ステップS110)である。
ツール選択処理(ステップS110)の詳細を、図5Bに示した。ツール選択処理が開始されると、まず入力モードをミラーモードとし、画像表示部200とディスプレイ73とに同じものを表示するモードとする。これにより、ディスプレイ73にも、画像表示部200と同様に、各種ツールのアイコンを含むツールバーTBが表示される。そこで使用者は、ディスプレイ73上で、いずれかのツールを選択する処理を行なう(ステップS112)。ディスプレイ73は、タッチパネル72が設けられているので、対象アプリ83は、使用者がいずれのツールのアイコンを選択したかを、イベント検出部82、UIアプリ84を介して、認識できる。なお、ツールは、デフォルトでは、特定のツール、例えばペンツールPTが選択状態とされていてもよい。また、ツールバーTBに表示されるツールは、ペンツールだけでもよく、その場合は選択処理(ステップS120)を行なわないものとしてもよい。ツールバーTBには、他のツール、例えば塗り潰しツールや、ベクトルデータとしての直線や円、あるいは多角形などを描画するツールを含ませてもよい。もとより、ツールの選択は、こうしたツールバーTBによる選択に限らず、ポップアップメニューやプルダウンメニューから選択する方法等、各種の手法が採用可能である。あるいは音声認識を利用して、ツールを選択するようにしても差し支えない。
使用者がディスプレイ73にタッチして、何らかのツールを選択すると、選択されたツールについて判断し(ステップS113)、選択されたアイコンが、ペンツールPTであれば、ペンツールPTを選択し、表示する(ステップS114)。ペンツールPTが選択されると、ツールバーTBのペンツールのアイコンPTが黒く反転して、選択状態にあることを表示する。また、画像表示部200に、ペンツールPTを輪郭線で表示する(図6参照)。
同様に、選択されたツールについての判断(ステップS113)において、選択されたアイコンが、マーカーMTであれば、マーカーMTを選択し、表示する(ステップS115)。マーカーMTが選択されると、ツールバーTBのマーカーのアイコンMTが黒く反転して、選択状態にあることを表示する。また、画像表示部200に、マーカーMT(図示省略)を表示する。同様に、選択されたツールについての判断(ステップS113)において、選択されたアイコンが、消しゴムETであれば、消しゴムETを選択し、表示する(ステップS116)。消しゴムETが選択されると、ツールバーTBの消しゴムのアイコンETが黒く反転して、選択状態にあることを表示する。また、画像表示部200に、消しゴムETを(図示省略)表示する。
これらの処理の後、あるいはステップS113の判断でツールの変更がないと判断された場合には、「NEXT」に抜けてツール選択処理を終了し、図4のステップS120に進み、描画モードサイズを取得する。描画モードサイズとは、操作対象の大きさが、描画モードとして扱うことができる大きさであるか否かを決定するサイズである。本実施形態では、操作対象として使用者の手の面積を用いる。手の面積は、手の色の部分の大きさで判断する。手の色として予め定めた色の部分の大きさの判断方法などについては、後で詳しく説明する。またその際に用いる描画モードサイズについても、その際に併せて説明する。
続いて、視野画像を取得する処理を行なう(ステップS130)。視野画像とは、ビデオカメラ61R,61Lが撮像する画像であり、使用者の視野として想定される画像である。視野画像は2つのビデオカメラ61R,61Lの画像を合成した画像であってもよいし、2つのビデオカメラ61R,61Lの一方の画像であってもよい。ビデオカメラ61Rによる視野画像の撮像のイメージを図5Cに示した。ビデオカメラ61Rは、いわゆる無焦点レンズを備え、ビデオカメラ61Rからの距離によらず、一定の範囲についてピントのあった画像を撮像可能である。もとより、オートファーカスの機能を付け、操作対象である手にピントを合わせるようにしてもよい。図5Cでは、使用者の右手とビデオカメラ61Rとの離間距離が異なる場合の、撮像された画像における手の大きさの様子を、ビデオカメラ61Rに最も近い画像Pn、最も遠い画像Pf、両者の中間の画像Pmの3枚の画像により示した。図示するように、使用者の手の実際の大きさは、いずれの位置でも同一だが、ビデオカメラ61Rによる撮像範囲は、ビデオカメラ61Rから遠いほど広くなるから、撮像された手の大きさは、相対的に小さくなる。このため、ビデオカメラ61Rに最も近い位置で撮像した画像Pnにおいては、手の画像HDnは最も大きく、最も遠い画像Pfにおいては、手の画像HDfは最も小さく、両者の中間の画像Pmにおいては、手の画像HDmは、その中間の大きさとなる。
視野画像を取得した後、取得した画像内の手を認識する処理を行なう(ステップS135)。手は、いわゆる肌の色として、予め定めた色範囲に入っている画素集合と考えることができる。したがって、予め肌の色の範囲として指定したRGB値の範囲に入る画素であって、連続した画素を認識することにより、撮像した画像内に手があることを抽出することは容易である。もとより、肌の色の範囲には、個人差があるので、どの色範囲を肌の色の範囲とするかは、調整可能としてもよい。肌の色に対応するとして定めたRGB値の画素の連続する領域が二つ以上あれば、そのうち一番大きな領域を手として認識する。また、認識した領域の面積が数画素以下など小さければ、手があるという認識は行なわない。
こうして、取得した視野画像から手を認識できた場合には、その手の先端位置を認識する処理を行なう(ステップS140)。手の先端位置の認識は様々な手法が提案されているが、例えば所定のRGB値の範囲に入っている領域の重心を求め、重心から最も隔たった位置を手の先端として認識してもよい。また、単純に手の色の領域として認識した領域の左上を手の先端として認識してもよい。利き手による先端位置の違いを考慮して、左上または左下、あるいは右上または右下を先端の候補として取り扱うものとし、どこを手の先端と認識するかを使用者が設定出来るようにしてもよい。あるいは、予め定めた色のシールを手の先端に貼っておき、これを手の先端として認識してもよい。手が認識できていなければ、当然手の先端の認識も行なわれない。
手の先端を認識したら、続いて。手の面積を算出する(ステップS150)。ここでは、手の面積は、ステップS135で手として認識した領域の画素数をカウントすることにより求めている。もとより、画素数に代えて、画像表示部200上の面積として求めてもよい。手の面積を求めると、この面積が先に取得した描画モードサイズ(ステップS120)に対してどのような関係にあるかを判断する(ステップS160)。ステップS120で取得する描画モードサイズの一例を図7に示した。図示した数値は、画素数に対応している。この描画モードサイズは、使用者の体型(サイズ)によって、「S」「M」「L」の3つの段階に分けられている。サイズ「S」は、小さめの使用者であり、実社会では女性や子供など身長155センチ未満が想定されている。サイズ「M」は、普通の大きさの使用者であり、同様に、中肉中背の男性~大柄な女性であって、身長155センチ~175センチが想定されている。サイズ「L」は、大きめの使用者であり、同様に、大柄な男性であって、身長175センチ超えが想定されている。なお、この例では、使用者の手のサイズを判断する使用者のサイズとして、「S」「M」「L」の三段階を想定したが、更に細かく分けてもよい。あるいは、使用者を限定して、一つのサイズあるいは二つのサイズのみを用意してもよい。モードサイズは、使用者の手が、描画を行なうことが可能な距離に入っているか否かを判断するための範囲を示している。
本実施形態では、各サイズに対して、認識中モード1、描画モード範囲、認識中モード2の3つの判断基準に用意した。このうち、描画モード範囲は、手の大きさがこの範囲に入っていれば、描画モードとして扱うという範囲、つまり第1範囲である。他方、認識中モード1は、描画モード範囲より手の面積が小さく、手の認識はなされるが、描画モードとしては扱わない範囲である。更に、認識中モード2は、描画モード範囲より手の面積が大きく、手の認識はなされるが、描画モードとしては扱わない範囲である。認識中モード1と認識中モード2とを一括して、認識モードという。
ステップS150で求めた手の面積が、認識中モード1の下限値より小さいか、あるいは認識中モード2の上限値より大きければ、使用者の手の位置は、描画可能な位置や描画可能な位置の近傍には至っていないとして、何も行なわず、ステップS190に移行する。ステップS190では、描画処理の終了が指示されたかを判断し、指示されていなければ、ステップS100に戻って、上述した処理を繰り返す。
ステップS160において、認識した手の面積が、使用者について設定された認識モードの範囲(図7)に入っていると判断されると、認識中表示を行なう(ステップS170)。認識中表示の一例を、図8に示した。この例では、ステップS110の選択処理により選択されて輪郭線で表示されたペンツールPTの内部を、認識した手HDの大きさに応じた領域RDだけ塗り潰している。また、ペンツールPTは、使用者の手HD近傍であって、手HDと重ならない位置に表示される。この例では、手HDの形状から使用者が右利きであると判断し、ペンツールPTの向きを、ペン先が画像表示部200において左下方向となるように、かつ手HDの左側に描画している。このようにすることで、仮想的なペンツールPTを用いた描画の違和感を低減でき、現実のペンによる描画の感覚に近づけることができる。なお、図8に示した例では、手HDの面積が認識モードの範囲であることを、輪郭線で示されたペンツールPTの内部を部分的に塗り潰すことで示したが、ペンツールPTの輪郭線の色や線種を変えたり、ツールを点滅させたり、形状を変更したり、「認識中」といったテキストを表示したり、更には音声により認識中モードであって描画モードではないことを提示したり、など他の手法によってもよいことは勿論である。
ステップS160において、認識した手の面積が、使用者について設定された描画モードサイズ(図7)に入っていると判断されると、描画を行なうモードであること示した上で、描画の処理を行なう(ステップS180)。具体的には、図9に示したように、ペンツールPTの内部を全て塗り潰している。また、ペンツールPTは、使用者の手HD近傍であって、手HDと重ならない位置に表示される。この状態で、使用者が自らの手を動かすと、認識している手の先端の動きをビデオカメラ61Rで認識し、その動きに応じて、ペンツールPTを移動し、ペンツールPTの先端の軌跡に沿って描線PJを、画像表示部200に描く。この様子を、図10に例示した。描画された画像はビットマップデータとして扱ってもよいし、ベジュエ曲線やスプライン曲線などのベクトルデータとして扱ってもよい。これらのデータは、適宜、メモリー85に保存される。
上述した処理のうち、ステップS150の処理が、撮像画像から、操作対象を、操作対象の色の領域として抽出する抽出部に相当し、ステップS160とこれに続く処理(ステップS170,S180)が、抽出した色の領域の大きさに従って、操作対象、ここでは手による描画モードを変更する描画モード変更部に相当する。なお、この例では、手の色の面積に応じて変更される描画モードは、少なくとも実際に線を描く状態(描画するモード)と、描画するモードに近い状態(認識中であるモード)との2つを区別しているが、3つ以上のモードを用意し、この間で変更するようにしてもよい。3つ以上のモードとしては、例えば仮の描線を描くモードや、描画した線などを消去するモードなど、種々の描画モードを想定することができる。
図9、図10に示した例では、手HDの面積が描画モードサイズであることは、輪郭線で示されたペンツールPTの内部を全て塗り潰すことで示したが、ペンツールPTの輪郭線の色や線種を変えたり、ツールを点滅させたり、形状を変更したり、「描画中」といったテキストを表示したり、更には音声により描画モードであることとを提示したり、など他の手法によってもよいことは勿論である。
このように手HDの面積が描画モードサイズに入っていれば、ペンツールPTを塗り潰した画像として表示し、手HDの動きに応じた描画を行なう描画モードに切り替える。描画を続けているうちに、使用者が手HDの位置を使用者に近づけ過ぎたり(認識中モード2)、あるいは遠ざけ過ぎたり(認識中モード1)した場合には、ステップS160での判断は変更され、図11に例示したように、ペンツールPTは一部が塗り潰された画像表示に変更され、指先の動きに従う描画も中止される。ペンツールPTの一部を塗り潰す表示の場合、塗り潰す範囲は、描画モードサイズに対して、検出した手HDの面積がどの程度相違しているか、によって変更してもよい。つまり、第2モードに相当する認識モードにおいて、操作対象である手の色の領域の大きさを、描画モードサイズである第1範囲に対してどの程度相違しているかにより複数の段階に分けて認識し、第2モードにおける第2態様の表示、つまりツールの塗りつぶしの範囲を、認識した段階により異ならせて表示する。段階は、例えば画素数が、10%異なる度に、塗り潰す面積を10%ずつ変更するといったようにしてもよい。もちろん2段階程度であってもよい。
こうして、使用者の手HDが、画像表示部20を頭部に装着した使用者の視野に入ってくると、その手HDの画像表示部200内での大きさを認識することで、画像表示部20から手HDまでの距離を認識し、手HDまでの距離が認識モードの距離範囲に入っていればこれをペンツールPTの一部を塗り潰した状態の画像表示とし、手HDの面積が描画モードサイズに入っていれば、ペンツールPTの全部を塗り潰した状態の画像表示に変更し、手HDの動きに応じて描画を行なう。所定の色範囲に入っていることで手の面積を求める処理は、画像処理としては簡単なので、画像処理を行なうコンピューターにかける負担を小さくし、素早く面積を求めて、手HDまでの距離を知って、描画モードを切り替えることができる。
上記実施形態では、操作対象である手の色の領域の大きさで、描画モードを変更しているが、描画モードである状態から手を使用者の側に、つまり手前に引くと描画モードから認識中モードに変更される。これは、机の上で鉛筆やペン、マーカー等で描画している場合の動きと同様である。このため、描画モードの変更の仕方を直感的に理解し易い。上記実施形態では、図7に示した描画モード範囲外には、手がビデオカメラから遠ざかる「認識中モード1」とビデオカメラに近づく「認識中モード2」とを、同じように描画しないモードとして扱ったが、認識中モード2を、ツールが机上を離れたものとして、描画でないモードとして扱い、認識中モード1を、ツールが机上に強く押しつけられたものとして、例えばペン先が大きくなった描画モード、消しゴムが広い範囲を消すモードのように、机との距離に見立てて、扱いを変えるものとしてもよい。
上記実施形態では、HMD100は、画像表示部20以外に、制御装置70にもディスプレイ73を有しているが、このディスプレイ73に画像表示部20と同一の画像を表示するミラーモードなどを用いなくても、画像表示部20のみで描画することができる。このため、使用者はいちいち制御装置70の方を見なくても、自然な姿勢、自然な視野において、描画を行なうことができる。もとより、HMD100をディスプレイ73のない構成とすることも可能である。この場合、図5Aに示したツールバーTBも、画像表示部20側で選択するようにすればよい。ツールバーTBに表示された各アイコンの選択は、描画と同様に、手の色の面積により、「選択状態」と「非選択状態」とを区別するようにしてもよい。もとより従来から知られたジェスチャーによりアイコンを選択するものとしてもよい。
更に、制御装置70自体も、画像表示部20側に搭載して一体化しても差し支えない。この場合、バッテリーなどを共有することができる。一体化した場合、頭部装着時のバランスをとるために、眼鏡型にこだわらず、頭部にベルト等で装着する形態としてもよい。また、制御装置70と画像表示部20との接続を無線通信により行なうものとしてもよい。この場合、頭部に装着される装置の軽量化を図ることができる。更に、上記実施形態のHMD100は、例えばパーソナルコンピューターの表示装置として用いることもできるが、それ自身で、ワードプロセッサや表計算、図面描画などのアプリケーションプログラムが実行されるコンピューターとしての機能を実現できるよう構成してもよい。具体的には、高速のCPUや、SSDなどの記憶装置、DPSなどを搭載してもよい。こうした機能を実現可能なHMD100では、入出力手段として、上述した操作対象の色の領域の大きさによる描画モードの切り換えは、柔軟性があり、また簡易に実現できる入力方法として利用可能である。例えば、表計算プログラムにおけるセルの選択や、ワープロにおける単語の選択などに利用することができる。こうした選択・非選択の切り換えも、広い意味の描画モードの変更に相当する。もとより、アプリケーションプログラムが実行されるコンピューターとHMDのような表示装置との、どちら側にどの程度の機能を振り分けるかは、任意である。採用可能な機器の大きさや重さ、発熱など、種々の要件を勘案して、配分を決めればよい。
B.第2実施形態:
第2実施形態の画像表示システム400について説明する。画像表示システム400は、図12に示すように、電子白板500とビデオカメラ561と制御装置570とを備える。電子白板500は、短焦点プロジェクター510と、スクリーン520とを備える。電子白板500は、制御装置570からの画像信号を受けると、短焦点プロジェクター510を用いて、指示された画像をスクリーン520上に表示させる。電子白板500と制御装置570とは、有線接続してもよいし、WiFi(登録商標)などの無線通信によって接続してもよい。制御装置570は、第1実施形態と同様に、図示しないディスプレイを備える。したがって、使用者PSは、第1実施形態同様に、制御装置570を用いて描画用のアプリケーションプログラムを起動し、ペンツールPTなどを選択することができる。ツールが選択されると、選択されたツールのアイコンが、短焦点プロジェクター510によりスクリーン520上に表示される。図12に示した例では、ペンツールPTのアイコンが表示されている。
ビデオカメラ561は使用者PSの電子白板500側に配置される。具体的には、使用者PSの胸ポケットなどに装着される。もとより、スタンドを用いて配置してもよいし、使用者が首からぶら下げるようにしてもよい。ビデオカメラ561と制御装置570とは、無線または有線接続される。ビデオカメラ561は、電子白板500のスクリーン520の存在領域を撮像するよう撮像範囲や画角が設定されている。図12において、使用者PSの手HDは、電子白板500のスクリーン520よりかなり手前側に存在することになるが、ビデオカメラ561からは、スクリーン520の枠内に手HDが存在するように、使用者が手を動かすことは容易である。第1実施形態と同様に、ビデオカメラ561が撮像した範囲における手HDの色をした領域を認識し、その大きさが、予め定めた範囲に入っていれば、制御装置570は、認識モードと判断し、ツールのアイコンPTの一部RDを塗り潰した画像を、電子白板500のスクリーン520上に表示する。また、操作対象の色の領域の大きさが描画モードサイズに入っていれば、制御装置570は、ツールアイコンを塗り潰した画像を、電子白板500を用いて、スクリーン520に表示すると共に、使用者PSの手HDの動きに応じた描線PJを、電子白板500によりスクリーン520上に表示する。
手HDの使用者PSに対する前後方向の動きにより、ビデオカメラ561が撮像する手HDの色の領域の大きさは変化するから、この大きさに応じた画像表示が種々行なわれる点は、第1実施形態と同様である。
以上説明した第2実施形態によれば、使用者PSは、制御装置570に接続されたビデオカメラ561を装着するだけで、電子白板500のスクリーン520を用いて自由に描画を行なうことができる。また、描画に伴う各種操作を、第1日し形態と同様に行なうことができる。更に、第2実施形態では、使用者PSが描画しているものとを、他のメンバーと共有することができる。電子会議などで、参加者が個々人用のビデオカメラ561を装着して、電子白板500のスクリーンに520に向かって描画動作すれば、その結果を複数の参加者間で共有できる。描画するだけでなく、消去したり複製したりすることも、ツールを持ち替えて容易に行なうことができる。電子会議等で、複数台の画像表示システム400をネットワークで接続すれば、遠隔地のメンバーと画像を共有しつつ、各参加者が画像に対して描画操作でき、またその結果を共有することができる。電子白板500にプリンターなどの印刷装置を接続して、会議の結果などを印刷できるようにすることも望ましい。
C.他の実施形態:
上記各実施形態では、画像表示の制御として、操作対象の移動により描線を描くなどの描画モードと、操作対象を移動しても描画しないモードとを説明したが、画像表示の制御としては、これに留まらず、描画済みの画像の移動や複製などの制御を行なう実施形態も可能である。また、第1実施形態では、画像表示部20における画像表示部200は透過して外景を視認可能なタイプとしたが、非透過タイプの画像表示部を採用し、ビデオカメラ61Rにより撮像した画像を表示することで、外景を視認可能とした実施形態としてもよい。
また上記各実施形態では、操作対象の色の領域の大きさが、描画モードサイズか認識モードのサイズかは、そのときに採用されているツール、例えばペンツールPTのアイコンの表示態様の違いとして表現したが、描画用のツールと、描画モードの違いを表わす画像表示とを分離した実施形態も可能である。例えば、ペンツールPTの近傍に丸や四角などの図形を表示し、この図形の内部を塗り潰すか否かなどの画像表示により、描画モードの違いを表示する実施形態としてもよい。もとより、こうした画像表示には、テキストにより、描画モードを表示するものも含まれる。
上記各実施形態では、手HDに対応した色範囲の面積を求めることで、画像表示部20から手までの距離を認識して描画モードの切換を行なってツールの画像表示を変更したが、手HDの面積が描画モードサイズでなく認識モードサイズの場合、図13に例示するように、単にツールの画像表示を一部の塗り潰し変更するだけでなく、手HDに重ねて、描画モードサイズに対応した手の大きさを示す手の画像HHを表示する実施形態も可能である。こうすれば、使用者は、画像表示部200に表示された画像HHに自らの手HDが重なる様に、手を移動させる。この場合は、手を遠ざけることで視野内の手HDが小さくなり、画像HHに重なるようにすれば、描画モードサイズとなり、描画モードに復帰する。表示される手の画像HHは、手HDの大きさによって制御される画像表示の一例である。
同様の表示は、使用者の手が遠くなって、描画モードサイズより小さくなった場合にも、行なうことができる。この場合には、図14に例示したように、ガイド表示としての手の画像HH2は、実際に見えている使用者の手より大きな画像として画像表示される。こうした手のガイド表示(図13の画像HH、または図14に例示した画像HH2)に代えて、ツールの画像表示を変えることで、ガイド表示の機能を持たせることも可能である。例えば、図13では、ペンツールPTの塗り潰しをペン先から行ない、ペンツールPTの終端側PDを塗り残している。他方、図14では、ペンツールPTの先端側を塗り残している。こうすれば、ツールの塗り残す側をどちらにするかによって、手を近づけて大きくすれば描画モードサイズになるのか、あるいはその逆かを示すことができる。この場合は、画像HHや画像HH2は、表示しなくてもよい。また、ガイド表示は、文字によって行なうものとし、例えば手HDが小さければ、「手を近づけてください」といった表示を行なうものとしてもよい。
更に、使用者が描画のために、手を画像表示部20の視野内に持って行っていないといった場合、つまり図4のステップS135において手が認識できないといった場合、図15に例示したように、手の画像HH1を表示して、画像表示部20の視野内に使用者の手が入るようにすることをガイドする実施形態も可能である。もとより、こうした画像HH1に代えて、あるいは画像HH1と共に、音声や文字表示により、「手を視野内に入れてください」といったガイドを行なってもよい。
このほか、描画に用いられるツールの表示を変更して様々な情報を表示することも可能である。例えばペンツールPTの場合、先端の三角形の部分と、ツール本体を示す長方形の部分とが存在するので、手HDの大きさが描画モードサイズに入っている場合には、この長方形の部分を全て塗り潰すものとし、三角形の部分QDを描画モードサイズの範囲の状況を示すものとして扱う実施形態も可能である。使用者が描画モードにおいて描画している場合、手HDを動かすことで、手HDの面積が描画モードサイズの上下限値に近づく場合がある。こうした場合に、図16に例示したように、三角形の部分QDの塗り潰しを一部解除するといった表示を行なうことで、使用者の手HDが、使用者に近づきすぎたり遠ざかり過ぎたりして、描画モードサイズから離脱しかかっていることを使用者に報知できる。描画モードサイズの上限か下限かいずれの側に近づいているかは、塗り潰しを解除する位置で報知してもよい。使用者は、自らの手HDの動きが、遠近いずれの側に対するものであるかを感じ取ることができるから、単に描画モードサイズの範囲から外れそうになっていることを表示するだけでも差し支えない。
上記の実施形態では、抽出部の動作として、手の色として想定できる色範囲の画像の面積から手の大きさを認識し、手の距離を求めて描画モードの切り換えや、ツールの画像表示を変更するといった処理を行なったが、手の色として想定される色範囲には個人差もあるので、その色範囲を事前に学習できるようにしてもよい。予め、使用者の手などをビデオカメラで写し、取得した手の色のRGB値に対して、それぞれ所定の幅を設定して、その範囲のRGB値を有する画素を手の色範囲に属すると判断するのである。標準の肌の色を決めておき、そこからの差分として学習してもよい。
また、手に代えて、使用者が特定の色の手袋をはめるものとして、この手袋の画像を用いる実施形態としてもよい。特定の色の手袋を用いれば、実際の手の色よりも認識に用いる色範囲を狭くでき、また色の領域の境界も明確にしやすいので、その色の領域の面積を正確に求めることができる。同様に、図17に例示したように、手HDに所定の色のシールMRKを貼り、その色のシールを操作対象として扱い、面積を求めて操作対象までの距離を認識する実施形態としてもよい。この場合は、予めシールの色と共にその形を決めておけば、シールの形状も、操作対象の認識に利用できる。更に、操作対象として、特定の色のペンや棒、ライトなどを持つものとし、これらの色の面積を求めるようにしてもよい。こうすれば、認識すべき操作対象の大きさと使用者の手指の大きさとは無関係になり、操作対象の大きさを予め定めることができるので、使用者の性別や身長などに応じて、認識するサイズの範囲を切り替えるといった手間を要しない。
以上、幾つかの実施形態について説明したが、これらの実施形態では、操作対象をその操作対象を示すとされた色の領域として認識しているので、操作対象の形によらず、操作対象までの距離を判別することができる。仮想的なツールを用いて描画する場合、例えば手をどのような形にするかは、使用者の自由なので、様々な手の形を取りうるが、面積で判断すれば、そうした手の形にとらわれず判別することができる。手以外の、例えば特定の色の棒を手に持ったり、シールを手に貼ったりして、これを操作対象とする場合でも、棒の傾きや持ち方が相違しても、面積の算出は容易であり、持ち方などにとらわれず判別することができる。
D.他の態様:
本開示は、以下の態様としても実施可能である。
(1)例えば、画像表示装置は、外景の少なくとも一部を表示領域として画像を表示する画像表示部と、前記表示領域を含む領域を、撮像画像として撮像する撮像部と、前記撮像画像から、操作対象を、前記操作対象の色の領域として抽出する抽出部と、前記抽出した色の領域の大きさに従って、前記操作対象による描画モードを変更する描画モード変更部と、前記変更された描画モードに従って、前記画像表示部における画像表示を制御する制御部とを備えた構成としてもよい。
この画像表示装置は、操作対象をその色の領域として抽出し、抽出した色領域の大きさによって、描画モードを変更し、描画モードに従って画像表示部における画像表示を制御する。したがって、撮像部に対する操作対象の隔たりを、操作対象の大きさで容易に判定でき、描画モードの変更や画像表示の制御を容易に行なうことができる。画像表示の制御としては、例えば描画したり、描画済みの画像の移動や複製などが想定される。この結果、描画モードの変更や画像表示の制御をレスポンスよく実現できる。こうした効果は、特に画像表示装置のハードウェアの能力が高くない場合に顕著なものとなる。操作対象であると判断する色は、通常は一定の色の範囲に入っているかによって判断するが、その範囲は、操作対象の色が、例えば予め色が決められた手袋やシールであるような場合には、狭い範囲にでき、撮像画像に含まれる他のものから操作対象を判別しやすくできる。また、操作対象が使用者の手のようにあり得る色の範囲が広い場合には、操作対象の色の領域として抽出する際の色の範囲を広くしたり、使用者の手の色に合わせて調整したりすることも有効である。
抽出した色の領域の大きさで描画モードを変更する際の判断は、抽出した色の領域の大きさが、予め定めた閾値より大きいか小さいかといった二値的な判断としてもよいし、その領域の大きさに応じて多段階に判断するようにしてもよい。また判断の閾値は、操作対象の違いにより、複数用意し、いずれかを選択するようにしてもよい。例えば操作対象が画像表示装置の使用者の手である場合、使用者の身長や性別、体格などに応じて切り替えるようにしてもよい。この場合、切り換えは、使用者が選択してもよいし、撮像部が撮像した使用者の手の画像などを用いて選択する様にしてもよい。
(2)こうした画像表示装置において、前記描画モード変更部は、前記操作対象の色の範囲の大きさが、予め定めた面積範囲である第1範囲に入っている場合は描画可能な第1モードに、前記第1範囲に入っていない場合には、描画可能でない第2モードに、前記描画モードを変更し、前記制御部は、前記第1モードでは、前記操作対象の動きに応じて描画を行ない、前記第2モードでは、前記描画を行なわないものとしてもよい。こうすれば、操作対象の色の範囲の大きさだけで、操作対象が描画を行なう範囲に入っているか否かを判別して、描画する・描画しないを決められるので、簡略な構成で、使用者は自在に描画することができる。
(3)こうした画像表示装置において、前記制御部は、前記第1モードでは、前記操作対象に関連付けて、第1態様の表示を行ない、前記第2モードとでは、前記第1態様とは異なる第2態様の表示を行なうものとしてもよい。こうすれば、操作対象に関連付けて第1態様の表示が行なわれるので、現在の描画モードが第1モードかどうかを使用者は容易に視認できる。関連付けは、操作対象の近傍に第1態様の表示を行ない、操作対象の移動に合わせて表示位置を変更するといったものでもよい。また第1態様とは異なる第2態様の表示とは、第1態様とは形状や塗り潰しの範囲、色、点滅などが異なる表示であれば、どのようなものでもよい。
(4)こうした画像表示装置において、前記描画モード変更部は、前記第2モードにおける前記操作対象の色の領域の大きさが、前記第1範囲に対して相違する程度により複数の段階に分けて認識し、前記制御部は、前記第2モードにおける前記第2態様の表示を、前記段階により異なる態様で表示するものとしてよい。こうすれば、操作対象の色の領域の大きさが第1の範囲に対してどの程度相違しているかを使用者は認識でき、操作対象の色の領域の大きさを、第1の範囲に近づけて、描画モードを第1モードに変更した第1モードへの変更を回避したり、といった操作が行ないやすい。どの程度相違するかは、どの程度相違していないか(近接しているか)として判断してもよい。もとより、第2モードにおける第2態様の表示を変更しないものであっても差し支えない。
(5)こうした画像表示装置において、前記制御部は、前記第2モードにおける第2態様の表示を、前記段階が、前記第1範囲に近づくほど、前記第1態様の表示に近づけた表示の態様としてもよい。こうすれば、第1態様に対応した第1モードへの切り換えを更に容易に制御できる。この結果、第1モードに容易に切り替えられるばかりでなく、第1モードに切り替えたくない場合に、これを避ける方向に操作対象を操作することも容易となる。
(6)こうした画像表示装置において、前記制御部は、前記第1態様の表示および前記第2態様での表示を、予め定めたアイコンを用いて行なうものとしてもよい。こうすれば、アイコンを用いるので、現在の描画モードがどのようなものか容易に理解できる。アイコン以外に文字を用いて表示してもよい。また、アイコンは動画を含んでもよい。
(7)こうした画像表示装置において、前記制御部は、前記アイコンを前記操作対象よりも、前記表示領域の中心側、または前記操作対象の先端側のいずれかに表示するものとしてもよい。中心側に表示すれば、アイコンが表示領域のセンター側に配置されるので、アイコンを視認しやすくできる。また、操作対象の先端側に表示すれば、使用者は操作対象の先端を注視している可能性が高いので、アイコンを視認しやすくなる。アイコンは、使用者の利き手に応じて操作対象の聞き手の側と反対側、つまり使用者が右利きの場合には操作対象の左側に、表示してもよい。こうすれば、使用者が操作する操作対象に対して、いつも同じ側に表示されるので、視認しやすくなる。また、操作対象の先端側ではなく、末端側や予め定めた位置関係、例えば操作対象の重心の近くなどに表示するものとしてもよい。アイコンの表示位置は、使用者が選択可能としてもよい。
(8)こうした画像表示装置において、前記操作対象の色の領域の大きさは、前記撮像部が撮像した撮像画像における画素を単位として計測するものとしてもよい。画素を単位に操作対象の色の領域の大きさを計測すれば、操作対象の色として判断した画素の数を数えるだけで済み、処理を一層簡便なものにできる。もとより、抽出した色の領域の大きさは、面積として計測するものとしてもよい。
(9)こうした画像表示装置において、前記制御部は、前記撮像画像に前記操作対象が含まれない場合には、前記画像表示部に、前記操作対象に関連付けられたガイドを表示するものとてもよい。こうすれば、使用者は、操作対象を画像表示部の表示領域を含む領域に持ち込めばよいことを理解でき、この画像表示装置を用いた描画を実行しやすくなる。
(10)こうした画像表示装置において、前記操作対象は、使用者の手指、使用者が持つペン形状の対象物、使用者の手に貼られたシールのうちの少なくとも1つであるものとしもよい。使用者の手指であれば、使用者は特別な操作対象を用いることなく描画が行なうことがで、また描画に際して違和感が小さい。使用者が持つペン形状の対象物であれば、操作対象の色を特定しやすく、また描画における違和感も小さい。使用者の手に貼られたシールであれば、操作対象の色を特定しやすく、また使用者の手に貼るだけで済み、容易に利用できる。
(11)こうした画像表示装置において、前記画像表示部は、使用者の頭部に装着される頭部装着型表示装置の表示部であって、外景を視認可能な表示部であるものとしてもよい。こうすれば、使用者がいずれの方向を向いても、その方向の外景を視認しつつ、画像を表示できる。
(12)あるいは、こうした画像表示装置において、前記画像表示部は、平面上に画像を表示する電子白板であり、前記撮像部は、使用者から前記電子白板の存在領域を撮像可能であるものとしてもよい。こうすれば、電子白板の前に操作対象をかざすことで、その操作対象の色の領域の大きさにより、容易に描画モードを変更し、描画することができる。
(13)本開示の他の態様としては、外景の少なくとも一部を表示領域として描画を行なう画像表示方法がある。この画像表示方法は、前記表示領域を含む領域を撮像し、前記領域を撮像した撮像画像から、操作対象を、前記操作対象の色の領域として抽出し、前記抽出した色の領域の大きさに従って、前記操作対象による描画モードを変更し、前記変更された描画モードに従って、前記表示領域における画像表示を制御する。この画像表示方法によっても、上述した画像表示装置と同様の各種形態で実施でき、またその作用効果も同様である。
(14)本開示の更に他の態様としては、コンピューターにより実行され、外景の少なくとも一部を表示領域として描画を行なう画像表示プログラムがある。このコンピュータープログラムは、前記表示領域を含む領域を撮像する機能と、前記領域を撮像した撮像画像から、操作対象を、前記操作対象の色の領域として抽出する機能と、前記抽出した色の領域の大きさに従って、前記操作対象による描画モードを変更する機能と、前記変更された描画モードに従って、前記表示領域における画像表示を制御する機能と、を前記コンビューターにより実現させる。この画像表示プログラムによっても、上述した画像表示装置や画像表示方法と同様の各種形態で実施でき、またその作用効果も同様である。
(15)上記各実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよい。ソフトウェアによって実現されていた構成の少なくとも一部は、ディスクリートな回路構成により実現することも可能である。また、本開示の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD-ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。すなわち、「コンピューター読み取り可能な記録媒体」とは、データパケットを一時的ではなく固定可能な任意の記録媒体を含む広い意味を有している。
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、35…ベーシックボード、36…光学モジュールボード、37…カメラモジュールボード、40…接続ケーブル、46…中継コネクター、61R,61L…ビデオカメラ、62…内側カメラ、63…マイク、65…照度センサー、66…6軸センサー、67…LEDインジケーター、70…制御装置、71…表示部、72…タッチパネル、73…第2表示部、75…通信部、76…タッチパネルドライバー、77…コネクター、78…ディスプレイドライバー、80…CPU、82…入力イベント検出部、83…対象アプリ、84…UIアプリ、85…メモリー、91…I/F部、93…ディスプレイブリッジ、10…HMD、200…第1表示部、221,241…OLEDユニット、223,243…OLED、225…R-CPLD、245…L-CPLD、251…右光学系、252…左光学系、261,281…ハーフミラー、400…画像表示システム、500…電子白板、510…短焦点プロジェクター、520…スクリーン、561…ビデオカメラ、570…制御装置

Claims (12)

  1. 外景の少なくとも一部を表示領域として画像を表示する画像表示部と、
    前記表示領域を含む領域を、撮像画像として撮像する撮像部と、
    前記撮像画像から、操作対象を、前記操作対象の色の領域として抽出する抽出部と、
    前記抽出した色の領域の大きさに従って、前記操作対象による描画モードを変更する描
    画モード変更部と、
    前記変更された描画モードに従って、前記画像表示部における画像表示を制御する制御
    部とを備え
    前記描画モード変更部は、前記操作対象の色の範囲の大きさが、予め定めた面積範囲で
    ある第1範囲に入っている場合は描画可能な第1モードに、前記第1範囲に入っていない
    場合には、描画可能でない第2モードに、前記描画モードを変更し、
    前記制御部は、前記第1モードでは、前記操作対象の動きに応じて描画を行ない、前記
    第2モードでは、前記描画を行なわず、
    前記操作対象は、使用者の手指であり、
    前記予め定めた面積範囲は、使用者の体型によって異なる、画像表示装置。
  2. 前記制御部は、前記第1モードでは、前記操作対象に関連付けて、第1態様の表示を行
    ない、前記第2モードとでは、前記第1態様とは異なる第2態様の表示を行なう、請求項
    に記載の画像表示装置。
  3. 前記描画モード変更部は、前記第2モードにおける前記操作対象の色の領域の大きさが
    、前記第1範囲に対して相違する程度により複数の段階に分けて認識し、
    前記制御部は、前記第2モードにおける前記第2態様の表示を、前記段階により異なる
    態様で表示する、請求項2に記載の画像表示装置。
  4. 前記制御部は、前記第2モードにおける第2態様の表示を、前記段階が、前記第1範囲
    に近づくほど、前記第1態様の表示に近づけた表示の態様とする、請求項3に記載の画像
    表示装置。
  5. 前記制御部は、前記第1態様の表示および前記第2態様での表示を、予め定めたアイコ
    ンを用いて行なう、請求項2から請求項4のいずれか一項に記載の画像表示装置。
  6. 前記制御部は、前記アイコンを前記操作対象よりも、前記表示領域の中心側、または前
    記操作対象の先端側のいずれかに表示する、請求項5に記載の画像表示装置。
  7. 前記操作対象の色の領域の大きさは、前記撮像部が撮像した撮像画像における画素を単
    位として計測する、請求項1から請求項6のいずれか一項に記載の画像表示装置。
  8. 前記制御部は、前記撮像画像に前記操作対象が含まれない場合には、前記画像表示部に
    、前記操作対象に関連付けられたガイドを表示する、請求項1から請求項7のいずれか一
    項に記載の画像表示装置。
  9. 前記画像表示部は、使用者の頭部に装着される頭部装着型表示装置の表示部であって、
    外景を視認可能な表示部である、請求項1から請求項8のいずれか一項に記載の画像表示
    装置。
  10. 前記画像表示部は、平面上に画像を表示する電子白板であり、
    前記撮像部は、使用者から前記電子白板の存在領域を撮像可能である、
    請求項1から請求項8のいずれか一項に記載の画像表示装置。
  11. 外景の少なくとも一部を表示領域として画像の描画を行なう画像表示方法であって、
    前記表示領域を含む領域を撮像し、
    前記領域を撮像した撮像画像から、操作対象を、前記操作対象の色の領域として抽出し

    前記抽出した色の領域の大きさに従って、前記操作対象による描画モードを変更し、
    前記変更された描画モードに従って、前記表示領域における画像表示を制御し、
    前記操作対象の色の範囲の大きさが、予め定めた面積範囲である第1範囲に入っている
    場合は描画可能な第1モードに、前記第1範囲に入っていない場合には、描画可能でない
    第2モードに、前記描画モードを変更し、
    前記第1モードでは、前記操作対象の動きに応じて描画を行ない、前記第2モードでは
    、前記描画を行なわず、
    前記操作対象は、使用者の手指であり、
    前記予め定めた面積範囲は、使用者の体型によって異なる、画像表示方法。
  12. コンピューターにより実行され、外景の少なくとも一部を表示領域として描画を行なう
    画像表示プログラムであって、
    前記表示領域を含む領域を撮像する機能と、
    前記領域を撮像した撮像画像から、操作対象を、前記操作対象の色の領域として抽出す
    る機能と、
    前記抽出した色の領域の大きさに従って、前記操作対象による描画モードを変更する機
    能と、
    前記変更された描画モードに従って、前記表示領域における画像表示を制御する機能と

    前記操作対象の色の範囲の大きさが、予め定めた面積範囲である第1範囲に入っている
    場合は描画可能な第1モードに、前記第1範囲に入っていない場合には、描画可能でない
    第2モードに、前記描画モードを変更する機能と、
    前記第1モードでは、前記操作対象の動きに応じて描画を行ない、前記第2モードでは
    、前記描画を行なわない機能と、を前記コンピューターにより実行させ、
    前記操作対象は、使用者の手指であり、
    前記予め定めた面積範囲は、使用者の体型によって異なる、画像表示プログラム。
JP2020031345A 2020-02-27 2020-02-27 画像表示装置、画像表示方法、および画像表示プログラム Active JP7443819B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020031345A JP7443819B2 (ja) 2020-02-27 2020-02-27 画像表示装置、画像表示方法、および画像表示プログラム
US17/185,998 US11340736B2 (en) 2020-02-27 2021-02-26 Image display device, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020031345A JP7443819B2 (ja) 2020-02-27 2020-02-27 画像表示装置、画像表示方法、および画像表示プログラム

Publications (2)

Publication Number Publication Date
JP2021135738A JP2021135738A (ja) 2021-09-13
JP7443819B2 true JP7443819B2 (ja) 2024-03-06

Family

ID=77463761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020031345A Active JP7443819B2 (ja) 2020-02-27 2020-02-27 画像表示装置、画像表示方法、および画像表示プログラム

Country Status (2)

Country Link
US (1) US11340736B2 (ja)
JP (1) JP7443819B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022065419A (ja) * 2020-10-15 2022-04-27 セイコーエプソン株式会社 表示方法、及び表示装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211327A (ja) 2009-03-06 2010-09-24 Sharp Corp 画像解析装置、画像解析方法、撮像装置、画像解析プログラムおよび記録媒体
US20140139430A1 (en) 2012-11-16 2014-05-22 Quanta Computer Inc. Virtual touch method
JP2014182452A (ja) 2013-03-18 2014-09-29 Fujitsu Ltd 情報処理装置及びプログラム
JP2015225374A (ja) 2014-05-26 2015-12-14 キヤノン株式会社 情報処理装置、方法及びプログラム並びに記録媒体
WO2016075796A1 (ja) 2014-11-13 2016-05-19 日立マクセル株式会社 投射型映像表示装置および映像表示方法
JP2019219965A (ja) 2018-06-20 2019-12-26 株式会社リコー 共有端末、筆記方法、プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5293154B2 (ja) * 2008-12-19 2013-09-18 ブラザー工業株式会社 ヘッドマウントディスプレイ
US20120280948A1 (en) * 2011-05-06 2012-11-08 Ricoh Company, Ltd. Interactive whiteboard using disappearing writing medium
WO2013191315A1 (ko) * 2012-06-21 2013-12-27 엘지전자 주식회사 디지털 이미지 처리 장치 및 방법
KR102479052B1 (ko) * 2017-08-29 2022-12-20 삼성전자주식회사 복수의 컨트롤러를 이용한 전자 장치의 디스플레이 제어 방법 및 그 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211327A (ja) 2009-03-06 2010-09-24 Sharp Corp 画像解析装置、画像解析方法、撮像装置、画像解析プログラムおよび記録媒体
US20140139430A1 (en) 2012-11-16 2014-05-22 Quanta Computer Inc. Virtual touch method
JP2014182452A (ja) 2013-03-18 2014-09-29 Fujitsu Ltd 情報処理装置及びプログラム
JP2015225374A (ja) 2014-05-26 2015-12-14 キヤノン株式会社 情報処理装置、方法及びプログラム並びに記録媒体
WO2016075796A1 (ja) 2014-11-13 2016-05-19 日立マクセル株式会社 投射型映像表示装置および映像表示方法
JP2019219965A (ja) 2018-06-20 2019-12-26 株式会社リコー 共有端末、筆記方法、プログラム

Also Published As

Publication number Publication date
US11340736B2 (en) 2022-05-24
JP2021135738A (ja) 2021-09-13
US20210271342A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
CN108508603B (zh) 头部佩戴型显示装置及其控制方法、以及记录介质
US9377869B2 (en) Unlocking a head mountable device
US20170287222A1 (en) Head mounted display, method for controlling head mounted display, and computer program
US11681433B2 (en) Display system, controller, display system control method, and program for receiving input corresponding to image displayed based on head movement
JP2018151851A (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
JP2019128693A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP6776578B2 (ja) 入力装置、入力方法、コンピュータープログラム
JP2017067876A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム
JP2018084886A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
US10884498B2 (en) Display device and method for controlling display device
US20220155881A1 (en) Sensing movement of a hand-held controller
US11567330B2 (en) Display control apparatus, display control method, and display control program
JP7443819B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
US11391953B2 (en) Display device, control method for display device, and program
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
US20170285765A1 (en) Input apparatus, input method, and computer program
JP2017182460A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP6789377B2 (ja) 画像表示システム
CN111488072A (zh) 信息处理装置、信息处理装置的控制方法以及记录介质
JP6669183B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6631299B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200827

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210922

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7443819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150