JP2020077271A - 表示装置、学習装置、及び、表示装置の制御方法 - Google Patents

表示装置、学習装置、及び、表示装置の制御方法 Download PDF

Info

Publication number
JP2020077271A
JP2020077271A JP2018211050A JP2018211050A JP2020077271A JP 2020077271 A JP2020077271 A JP 2020077271A JP 2018211050 A JP2018211050 A JP 2018211050A JP 2018211050 A JP2018211050 A JP 2018211050A JP 2020077271 A JP2020077271 A JP 2020077271A
Authority
JP
Japan
Prior art keywords
unit
user
detection
display
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018211050A
Other languages
English (en)
Other versions
JP7271909B2 (ja
Inventor
小林 伸一
Shinichi Kobayashi
伸一 小林
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2018211050A priority Critical patent/JP7271909B2/ja
Priority to US16/677,827 priority patent/US11216066B2/en
Publication of JP2020077271A publication Critical patent/JP2020077271A/ja
Application granted granted Critical
Publication of JP7271909B2 publication Critical patent/JP7271909B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Abstract

【課題】入力に関するHMDの利便性の向上を図る。【解決手段】表示部と、使用者の身体の状態を検出する検出制御部157と、入力を受け付ける入力検出部158と、条件が成立した場合に処理を実行するアプリケーション実行部160と、処理に関する情報を表示させる表示制御部152と、を備え、アプリケーション実行部160は、実行指示を受け付けた場合に処理を実行し、検出制御部157の検出結果と受け付けた入力とに基づくデータセット148を生成するデータセット生成部168を有し、推定モデル164により処理の実行の可否を推定し、データセット148に従って推定モデル164を更新する学習部162と、を備える表示装置。【選択図】図5

Description

本発明は、表示装置、学習装置、及び、表示装置の制御方法に関する。
従来、HMD(Head Mounted Display)を装着した状態で、ユーザーが入力を行う手法が提案されている(例えば、特許文献1参照)。特許文献1に記載されたHMDは、操作用の三次元のオブジェクト画像を表示し、ユーザーの目線の先の所定範囲内で手指を検知することにより、オブジェクト画像に対する操作を検知する。
特開2008−217716号公報
特許文献1に開示されたように手指を用いる操作を行う場合、ユーザーの手指による入力が行われない状態で、HMDが入力を待機する状態が発生し得る。この場合、ユーザーは、手指による入力を急がなければならず、ユーザーの両手が塞がれないというHMDの利点が損なわれるという課題がある。
上記課題を解決する一態様は、使用者の頭部に装着される表示部と、前記使用者の身体の状態を検出する検出部と、入力を受け付ける入力部と、条件が成立した場合に処理を実行する処理部と、前記処理部が前記処理を実行する際に前記処理に関する情報を前記表示部に表示させる表示制御部と、を備え、前記処理部は、前記処理に関する情報が表示された状態で前記入力部によって実行指示を受け付けた場合に、前記処理を実行し、前記検出部の検出結果と、前記入力部により受け付けた入力とに基づく学習データセットを生成するデータセット生成部を有し、前記検出部の検出結果に基づき、推定モデルにより前記処理の実行の可否を推定し、前記学習データセットに従って前記推定モデルを更新する学習部と、を備える表示装置である。
上記表示装置において、前記学習部は、前記処理の種類及び前記検出部の検出結果に基づき、前記推定モデルにより前記処理の実行の可否を推定し、前記データセット生成部は、前記検出部の検出結果と、前記処理の種類と、前記入力部により受け付けた入力とに基づき前記学習データセットを生成する構成であってもよい。
上記表示装置において、前記検出部は、前記表示部に設けられたセンサーにより検出を行い、前記センサーは、前記使用者の瞳の状態または視線を検出する目センサー、前記使用者の心拍を検出する心拍センサー、及び、前記使用者の発汗を検出する発汗センサーの少なくともいずれかである構成であってもよい。
上記表示装置において、前記検出部は、前記表示部に設けられたセンサーにより検出を行い、前記センサーは、前記表示部の動きを検出する動きセンサー、及び、前記使用者の筋肉の動きを検出するセンサーの少なくともいずれかである構成であってもよい。
上記表示装置において、前記表示部に設けられる撮像部と、前記撮像部の撮像画像に基づき環境を特定する環境特定部と、を備え、前記学習部は、前記環境特定部の特定結果、及び、前記検出部の検出結果に基づき、前記推定モデルにより前記処理の実行の可否を推定し、前記データセット生成部は、前記検出部の検出結果と、前記環境特定部の特定結果と、前記入力部により受け付けた入力とに基づき前記学習データセットを生成する構成であってもよい。
上記表示装置において、前記表示制御部は、前記表示部に前記情報を表示してから所定の表示時間が経過すると表示を停止させ、前記表示時間は、前記学習部が前記推定モデルにより推定した結果に応じて決定される構成であってもよい。
上記表示装置において、前記処理部は、前記処理に関する情報が表示された状態で前記入力部による入力を受け付けない場合に、前記推定モデルを用いた推定結果に従って、前記処理の実行の可否を決定する構成であってもよい。
上記課題を解決する一態様は、使用者の頭部に装着される表示部と、前記使用者の身体の状態を検出する検出部と、条件が成立した場合に処理を実行する処理部と、前記処理部が前記処理を実行する際に前記処理に関する情報を前記表示部に表示させる表示制御部と、を備え、前記処理部は、前記処理に関する情報が表示された状態で前記検出部の検出結果により、前記処理を実行し、前記検出部の検出結果の組合せにより前記処理の実行の可否の推定モデルを更新する学習部と、を備える表示装置である。
上記課題を解決する一態様は、使用者の頭部に装着される表示部と、前記使用者の身体の状態を検出する検出部と、を備える表示装置を対象として処理を行う学習装置であって、入力を受け付ける入力部と、条件が成立した場合に処理を実行する処理部と、前記処理部が前記処理を実行する際に前記処理に関する情報を前記表示部に表示させる表示制御部と、を備え、前記処理部は、前記処理に関する情報が表示された状態で前記入力部によって実行指示を受け付けた場合に、前記処理を実行し、前記検出部の検出結果と、前記入力部により受け付けた入力とに基づく学習データセットを生成するデータセット生成部を有し、前記検出部の検出結果に基づき、推定モデルにより前記処理の実行の可否を推定し、前記学習データセットに従って前記推定モデルを更新する学習部と、を備える学習装置である。
上記課題を解決する一態様は、使用者の頭部に装着される表示部を備える表示装置の制御方法であって、条件が成立した場合に、実行する処理に関する情報を前記表示部に表示する表示ステップと、前記情報が表示された状態で、実行指示の入力を受け付けた場合に、前記処理を実行する実行ステップと、前記使用者の状態を検出した検出結果に基づき、推定モデルにより前記処理の実行の可否を推定する推定ステップと、前記検出結果と前記入力とに基づく学習データセットを生成するデータセット生成ステップと、前記学習データセットに従って前記推定モデルを更新する学習ステップと、を含む表示装置の制御方法である。
表示システムの構成を示す図。 HMDの外観構成を示す図。 画像表示部と撮像範囲の対応を示す模式図。 HMDのブロック図。 制御部の機能ブロック図。 HMDにより表示される画面の例を示す図。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。
[1.表示システムの構成]
図1は、本発明を適用した実施形態に係る表示システム1の概略構成図である。
表示システム1は、HMD(Head Mounted Display)100と、サーバー400とを備え、HMD100とサーバー400とは通信ネットワークNにより通信可能に接続される。HMD100は、表示装置の一例に対応する。
表示システム1に含まれるHMD100の数に制限はなく、図1には一例として、1つのHMD100を示す。表示システム1が複数のHMD100を含む場合、各々のHMD100が、いずれも共通する構成とすることができる。
HMD100は、図2を参照して後述するように、使用者Uが頭部に装着する頭部装着型表示装置であり、使用者が虚像を視認すると同時に外景を直接視認可能な、光学透過型の表示装置である。外景は、HMD100を装着する使用者Uの外部の景色であり、使用者Uが画像表示部20を装着していない状態でも肉眼により視認可能な、実空間の光景である。使用者Uは、HMD100のユーザーであり、操作者ということもできる。
以下の説明では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」と呼ぶ。また、画像データに基づく画像光を射出することを「画像を表示する」という。ここで、画像とは、静止画像に限らず、動画像あるいは映像を含む。
この構成は一例であり、たとえば、HMD100が、光学的に不透過であり、外景を撮像した撮像画像を表示することで、使用者Uに間接的に外景を視認させる、いわゆるビデオシースルー型の表示装置であってもよい。
通信ネットワークNは、公衆回線網、専用線、携帯電話回線を含む無線通信回線、及び、これらの回線のバックボーン通信回線など、各種の通信回線、或いは、各種通信回線の組合せで実現され、具体的構成は限定されない。
サーバー400は、サーバー制御部401、サーバー記憶部402、及び、サーバー通信部405を備える。サーバー記憶部402は、HMD100に対して提供可能なデータを記憶する記憶装置であり、図1の例ではコンテンツデータ403及び予定データ404を記憶する。コンテンツデータ403は、音声を伴う映像のデータ、静止画像のデータ、動画像のデータ等であり、HMD100により再生可能なデータフォーマットである。予定データ404は、HMD100に対応づけられたスケジュールデータであり、例えば、日時を示す情報と、使用者Uに関連するイベント等のデータを含む。
サーバー通信部405は、通信ネットワークNを通じてHMD100との間でデータ通信を実行する。サーバー通信部405は、サーバー制御部401の制御に従って、サーバー記憶部402に記憶されたデータをHMD100に送信する。サーバー制御部401は、例えばHMD100の要求に応じて、サーバー通信部405によってコンテンツデータ403や予定データ404をHMD100に送信させる。これにより、HMD100は、サーバー400から、コンテンツデータ403や予定データ404を取得できる。HMD100がコンテンツデータ403や予定データ404を取得する具体的な態様は制限されず、HMD100がデータをダウンロードしてもよいし、サーバー通信部405がHMD100に対しストリーミング送信してもよい。
[2.HMDの構成]
図2は、HMD100の外観構成を示す図である。
HMD100は、使用者Uが頭部に装着する画像表示部20、及び、画像表示部20を制御するコントローラー10を備える。画像表示部20は、使用者Uの頭部に装着された状態で使用者に虚像を視認させる。コントローラー10は、使用者UがHMD100を操作するための制御装置として機能する。画像表示部20は、表示部の一例に対応する。
コントローラー10は、箱形の本体11に、使用者Uの操作を受け付ける操作子として、各種のスイッチ等を備える。画像表示部20は、本実施形態では眼鏡形状を有し、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28を備える。
右保持部21及び左保持部23は、前部フレーム27の両端部から後方に延び、使用者Uの頭部に画像表示部20を保持する。前部フレーム27の両端部のうち画像表示部20の装着時に使用者Uの右側に位置する端部を端部ERとし、左側に位置する端部を端部ELとする。
右導光板26及び左導光板28は、前部フレーム27に設けられる。画像表示部20の装着状態において、右導光板26は使用者Uの右眼の眼前に位置し、左導光板28は使用者Uの左眼の眼前に位置する。
右表示ユニット22及び左表示ユニット24は、光学ユニット及び周辺回路をユニット化したモジュールであり、画像光を出射する。右表示ユニット22は、右保持部21に取り付けられ、左表示ユニット24は、左保持部23に取り付けられる。
右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部品である。例えば、右導光板26及び左導光板28はプリズムである。右導光板26は、右表示ユニット22が出力する画像光を使用者Uの右眼に向けて導き、左導光板28は、左表示ユニット24が出力する画像光を使用者の左眼に導く。これにより、使用者Uの両眼に画像光が入射し、使用者Uが画像を視認できる。
使用者Uの右眼REには、右導光板26により導かれた画像光と、右導光板26を透過した外光とが入射する。同様に、左眼LEには、左導光板28により導かれた画像光と、左導光板28を透過した外光とが入射する。このように、HMD100は、内部で処理した画像に対応する画像光と外光とを重ねて使用者Uの眼に入射させ、使用者Uにとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光による画像が視認される。
右導光板26及び左導光板28の表面に、調光機能を有するシェード、または、電気的に光の透過率を調整可能な電子シェードを設けてもよい。
画像表示部20の前部フレーム27には、照度センサー65が配置される。照度センサー65は、画像表示部20を装着する使用者Uの前方からの外光を受光する。
外側カメラ61は、画像表示部20の前部フレーム27に配設される。外側カメラ61の撮像範囲および撮像方向については後述する。外側カメラ61は、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図2の例では、外側カメラ61が前部フレーム27の端部ER側に配置されているが、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
外側カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態の外側カメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。外側カメラ61は、制御部150の制御に従って撮像を実行し、撮像画像データを制御部150に出力する。外側カメラ61は、撮像部の一例に対応する。
前部フレーム27には、LEDインジケーター67が配置される。LEDインジケーター67は、端部ERにおいて外側カメラ61の近傍に配置され、外側カメラ61の動作中に点灯して、撮像中であることを報知する。
距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。本実施形態では、距離センサー64は前部フレーム27に設けられ、使用者Uの前方に位置する測定対象物までの距離を検出する。距離センサー64は、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する光反射式距離センサーであってもよい。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える超音波式の距離センサーであってもよい。また、距離センサー64は、測域センサーとも呼ばれるレーザーレンジスキャナーであってもよく、この場合、画像表示部20の前方を含む広範囲の領域に対し測域を行える。
コントローラー10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、本体11のコネクター42に着脱可能に接続される。
接続ケーブル40は、オーディオコネクター46を備え、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、オーディオコネクター46に接続される。
マイク63は、音声を集音して、音声信号を、音声インターフェイス181に出力する。音声インターフェイス181については図4を参照して後述する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
コントローラー10は、使用者Uにより操作される被操作部として、ホイール操作部12、中央キー13、操作パッド14、上下キー15、LED表示部17、及び電源スイッチ18を備える。これらの被操作部は本体11の表面に配置される。これらの被操作部は、例えば、使用者Uの手指により操作される。
本体11にはLED(Light Emitting Diode)表示部17が設置される。本体11には、光を透過可能な透過部が形成され、透過部の直下にLED表示部17のLEDが設置される。このため、LED表示部17のLEDが発光すると、透過部を透過する光により、透過部に形成された文字、記号、模様等が視認可能な状態となる。
LED表示部17に対する使用者Uの手指の接触操作は、図4を参照して後述するタッチセンサー172により検出される。このため、LED表示部17とタッチセンサー172との組合せはソフトウェアキーとして機能する。
電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチである。また、本体11は、コントローラー10を、外部の装置に接続するインターフェイスとして、USB(Universal Serial Bus)コネクター19を備える。
HMD100は、センサーユニット70を備える。センサーユニット70は、使用者Uの身体に装着され、使用者Uの身体に関する検出を行うセンサーを備える。センサーユニット70は、例えば、使用者Uの腕に装着されてもよい。また、センサーユニット70は、使用者Uの胸部、頭部、脚部、臀部、上腕部、手、指など、身体のいずれかの場所に装着される。センサーユニット70は、使用者Uの身体の表皮に直接、接触する態様で装着されることが好ましいが、衣服の上から装着されるものであってもよい。
センサーユニット70は、装着を容易にするため、腕時計型の形状を有していてもよいし、ペンダントや指輪等のアクセサリーを模した形状であってもよく、その形状を含む具体的な態様は任意である。また、センサーユニット70は、スマートフォンやスマートウォッチと呼ばれる、HMD100以外のデバイスとして構成される。これらの外部のデバイスとHMD100とが無線通信を実行することにより、外部のデバイスをセンサーユニット70として利用してもよい。本実施形態では、HMD100が、コントローラー10と通信するセンサーユニット70を、HMD100の一部の構成として備える例を説明する。また、一例として、センサーユニット70は、使用者Uの腕に装着される腕時計型のデバイスであり、バンドにより使用者Uの上腕部や手首に保持され、使用者Uの腕の表皮に密着可能な構成である。
図3は、画像表示部20の要部構成を示す図であり、外側カメラ61の位置を、使用者Uの右眼RE及び左眼LEとともに平面視で模式的に示す。
図3に、外側カメラ61の画角、すなわち撮像範囲をCで示す。外側カメラ61は、使用者Uの両眼が向く方向、すなわち使用者Uにとって前方を撮像する。なお、外側カメラ61の実際の画角は一般的なデジタルカメラと同様に上下方向にも拡がる。
外側カメラ61は、HMD100を装着した状態における使用者Uの視界方向の少なくとも一部の外景を撮像する。このため、外側カメラ61の画角Cは、使用者Uの正面方向を向き、使用者Uが画像表示部20を透過して視認する外景と重複する。画角Cは、使用者Uが画像表示部20を透過して視認する視界の全体を含むことが、より好ましい。
外側カメラ61は無限遠にフォーカスする構成であってもよいが、制御部150の制御によりフォーカス調整が可能なものであってもよい。
図3に示すように、使用者Uが両眼で対象物OBを注視すると、使用者Uの視線は、図中符号RD、LDに示すように対象物OBに向けられる。この場合、使用者Uから対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者Uから対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者Uが設定してもよい。外側カメラ61の光軸、及び画角Cは、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。
また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が、図3の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者Uが画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野と呼ぶことができる。実視野は、FOV(Field Of View)とも呼ばれる。実視野は、右導光板26及び左導光板28を透過して使用者Uが視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
そこで、外側カメラ61の画角Cは、使用者Uの有効視野よりも広いことが好ましい。より好ましくは、画角Cは使用者Uの実視野よりも広く、さらに好ましくは、画角Cは使用者Uの安定注視野よりも広い。最も好ましくは、画角Cは使用者Uの両眼の視野角よりも広い。
外側カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群を外側カメラ61が備える構成であってもよい。
また、上述のように、外側カメラ61は端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。この場合、外側カメラ61の左右方向における位置は図4の位置とは異なり、外側カメラ61の光軸および画角Cは、外側カメラ61の設置位置に応じて適宜に設定される。
なお、以下の説明では、画角Cに対応する外側カメラ61の撮像範囲を、単に撮像範囲とする。
図3には、使用者Uの輻輳角を符号PAで示す。輻輳角PAは、使用者Uが注視する対象物OBまでの距離に対応する。すなわち、使用者Uが立体的に画像や物体を視認する場合、視認する対象までの距離に対応して、右眼RE及び左眼LEの輻輳角が定まる。従って、輻輳角を検出することで、使用者Uが注視する距離を求めることができる。また、使用者Uの輻輳角を誘導するように画像を表示することにより、立体視を誘導できる。
HMD100は、右表示ユニット22、左表示ユニット24の画像の表示位置を制御し、使用者Uの視線RD、LDを誘導することにより、画像表示部20の表示画像を視認する際の輻輳角PAを制御できる。このため、使用者Uが、画像表示部20の表示画像を認識し、知覚する距離を、HMD100の機能により調整可能である。
外側カメラ61が撮像する撮像方向の具体例として、使用者Uの視線方向を含む方向が挙げられるが、画像表示部20を装着した使用者Uの前方であってもよい。また、画像表示部20を装着した使用者Uの移動方向を外側カメラ61の撮像方向とする構成であってもよい。また、使用者Uが、後述する非表示対象を見る方向であってもよい。外側カメラ61の画角は上述したように任意であり、広角であってもよく、例えば全方位カメラのように、360°を撮像可能なカメラであってもよく、複数の撮像素子や複数のレンズ等を備えて広角の撮像を可能とした複合デバイスであってもよい。
図3には、HMD100が備える内側カメラ68を示す。内側カメラ68は、画像表示部20において、使用者Uの顔に対向する位置に設置され、右眼RE及び左眼LEを向いて配置される。内側カメラ68は、右眼RE、及び左眼LEを撮像する。内側カメラ68の撮像画像により、HMD100は、右眼REの視線RD、及び、左眼LEの視線LDの方向を特定できる。また、HMD100は、内側カメラ68の撮像画像を解析することにより、右眼RE及び左眼LEの瞳孔のサイズを検出することができる。HMD100は、瞳孔のサイズの変化をもとに、使用者Uの瞳孔の縮瞳または散瞳の状態を特定してもよい。また、HMD100は、内側カメラ68の撮像画像をもとに、右眼RE及び左眼LEのまぶたの開閉状態を検出してもよい。
[3.HMDの制御系]
図4は、HMD100を構成する各部の構成を示すブロック図である。
コントローラー10は、プログラムを実行してHMD100を制御するメインプロセッサー125を備える。メインプロセッサー125には、メモリー118及び不揮発性記憶部121が接続される。メインプロセッサー125には、入力装置として操作部170が接続される。メインプロセッサー125には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS受信部115が接続される。
メインプロセッサー125には、通信部117、音声処理部180、外部メモリーインターフェイス191、USBコネクター19、センサーハブ193、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。なお、図中においては、インターフェイスをI/Fと略記する。
メインプロセッサー125は、コントローラー10が内蔵するコントローラー基板120に実装される。本実施形態では、コントローラー基板120に、6軸センサー111、磁気センサー113、GPS受信部115、通信部117、メモリー118、不揮発性記憶部121、音声処理部180等がコントローラー基板120に実装される。また、外部メモリーインターフェイス191、USBコネクター19、センサーハブ193、FPGA194、及びインターフェイス197をコントローラー基板120に実装してもよい。また、コネクター42、及びUSBコネクター19を、コントローラー基板120に実装してもよい。
メモリー118は、メインプロセッサー125により実行されるプログラム、及び、メインプロセッサー125が処理するデータ等を一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー125が実行するプログラムや、メインプロセッサー125が処理するデータを記憶する。
操作部170は、LED表示部17、タッチセンサー172、及びスイッチ174を含む。タッチセンサー172は、使用者Uによるタッチ操作を検出し、操作位置を特定し、メインプロセッサー125に対して操作信号を出力する。スイッチ174は、上下キー15、及び、電源スイッチ18の操作に応じて、メインプロセッサー125に操作信号を出力する。LED表示部17は、メインプロセッサー125の制御に従って、LEDを点灯、点滅、消灯させる。操作部170は、例えば、LED表示部17、タッチセンサー172、スイッチ174、及び、これらを制御する回路が実装されたスイッチ基板であり、本体11に収容される。
6軸センサー111は、コントローラー10の動きを検出するモーションセンサーの一例である。モーションセンサーは、慣性センサーと言い換えることもできる。6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロセンサーを備える。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)受信部115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信する受信機である。GPS受信部115は、GPS信号に基づき、コントローラー10の現在位置の座標を検出または算出する。
6軸センサー111、磁気センサー113及びGPS受信部115は、予め指定されたサンプリング周期に従ってメインプロセッサー125に出力値を出力する。また、6軸センサー111、磁気センサー113及びGPS受信部115は、メインプロセッサー125の要求に応じて、メインプロセッサー125により指定されたタイミングで、検出値をメインプロセッサー125に出力する構成であってもよい。
通信部117は、外部の機器との間で無線通信を実行する通信装置である。通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備え、これらが統合されたデバイスであってもよい。また、各種回路が実装された通信モジュール基板であってもよい。通信部117は、例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信を行う。通信部117は、図1に示したサーバー400との通信を実行する。また、通信部117は、センサーユニット70と通信を行う。
音声信号を入出力する音声インターフェイス181は、オーディオコネクター46に接続され、音声信号を入出力する。音声処理部180は、音声インターフェイス181により入出力される音声信号のエンコード/デコードを行う。音声処理部180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。
外部メモリーインターフェイス191は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。
インターフェイス197は、センサーハブ193及びFPGA(Field Programmable Gate Array)194を、画像表示部20に接続する。
センサーハブ193は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー125に出力する。FPGA194は、メインプロセッサー125と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス197を介した伝送を実行する。
センサーユニット70は、センサー通信部71、発汗センサー72、心拍センサー73、及び、筋電センサー74を備える。発汗センサー72は、使用者Uの発汗状態を検出するセンサーである。例えば発汗センサー72は、使用者Uの表皮に接触し、表皮における電気伝導度を検出することにより、発汗の有無、発汗の程度等の指標となる値を出力する。心拍センサー73は、使用者Uの心拍数を検出するセンサーである。心拍センサー73は、例えば、使用者Uの血管の拍動を光学的に検出するセンサー、或いは、血圧の変動を検出するセンサーである。筋電センサー74は、センサーユニット70が装着された位置における使用者Uの筋肉の電位、いわゆる筋電位を検出するセンサーである。筋電センサー74は、センサーユニット70から離れた位置において使用者Uの身体に装着される図示しないプローブを有してもよい。発汗センサー72、心拍センサー73及び筋電センサー74は、公知のセンサーを用いることができる。センサー通信部71は、例えば、Bluetoothを用いて通信部117と無線通信を実行する。センサー通信部71は、発汗センサー72、心拍センサー73及び筋電センサー74の検出値や検出結果を、予め設定された周期でコントローラー10に送信する。
センサーユニット70の構成について制限はなく、使用者Uの生体に関する情報、及び、使用者Uの状態に関する情報を検出可能な他のセンサーを備える構成であってもよい。例えば、センサーユニット70は、使用者Uの体温を検出する温度センサーや、血圧を検出する血圧センサーを備えてもよい。また、センサーユニット70は、動きを検出するモーションセンサーを備え、使用者Uの体動を検出してもよい。
接続ケーブル40、及び、図示しない画像表示部20内部の配線により、コントローラー10に、右表示ユニット22と、左表示ユニット24とが個別に接続される。
右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。OLEDユニット221が発する画像光は、レンズ群等を含む光学系により、右導光板26に導かれる。左表示ユニット24は、画像光を発するOLEDユニット241を備える。OLEDユニット241が発する画像光は、レンズ群等を含む光学系により、左導光板28に導かれる。
OLEDユニット221、241は、OLEDパネルやOLEDパネルを駆動する駆動回路を有する。OLEDパネルは、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネルは、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。駆動回路は、制御部150の制御に従って、OLEDパネルの発光素子の選択及び発光素子への通電を実行して、OLEDパネルの発光素子を発光させる。これにより、OLEDユニット221、241に形成された画像の画像光が、右導光板26及び左導光板28に導かれ、右眼RE及び左眼LEに入射する。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス197に接続されるインターフェイス211、インターフェイス211を介してコントローラー10から入力されるデータを受信する受信部213、及び、EEPROM215が実装される。インターフェイス211は、受信部213、EEPROM215、温度センサー66、外側カメラ61、照度センサー65、および、LEDインジケーター67を、コントローラー10に接続する。なお、図中では、受信部をRxと略記する。
EEPROM(Electrically Erasable Programmable Read−Only Memory)215は、メインプロセッサー125が読み取り可能にデータを記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー66、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー125がEEPROM215のデータを利用して処理を行える。
外側カメラ61は、撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号をインターフェイス211に出力する。
距離センサー64は、距離センサー64の検出範囲に位置する対象物までの距離を測定し、測定結果をインターフェイス211に出力する。
照度センサー65は、受光量、及び/または受光強度に対応する検出値を、インターフェイス211に出力する。
温度センサー66は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値としてインターフェイス211に出力する。温度センサー66は、OLEDユニット221が有するOLEDパネルの裏面側、或いは、OLEDパネルを駆動する駆動回路と同一の基板に実装され、OLEDパネルの温度を検出する。また、OLEDパネルがSi−OLEDとして、駆動回路等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー66を実装してもよい。
LEDインジケーター67は、インターフェイス211を介して入力される信号に従って点灯および消灯する。
内側カメラ68は、撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号をインターフェイス211に出力する。
受信部213は、インターフェイス211を介してメインプロセッサー125が送信するデータを受信する。受信部213は、インターフェイス211から画像データを受信した場合に、受信した画像データを、OLEDユニット221に出力する。
左表示ユニット24は、表示ユニット基板230を有する。表示ユニット基板230には、インターフェイス197に接続されるインターフェイス231、インターフェイス231を介してコントローラー10から入力されるデータを受信する受信部233が実装される。また、表示ユニット基板230には、6軸センサー235、及び、磁気センサー237が実装される。インターフェイス231は、受信部233、6軸センサー235、及び、磁気センサー237を、コントローラー10に接続する。
6軸センサー235は、画像表示部20の動きを検出するモーションセンサーの一例である。6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロセンサーを備える。6軸センサー235は、上記のセンサーがモジュール化されたIMUであってもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
また、OLEDパネルの裏面側、或いは、OLEDパネルを駆動する駆動回路と同一の基板には、図示しない温度センサーが実装される。この温度センサーは、OLEDパネルの温度を検出する。OLEDパネルがSi−OLEDとして、駆動回路等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサーを実装してもよい。
外側カメラ61、距離センサー64、照度センサー65、温度センサー66、内側カメラ68、6軸センサー235、及び、磁気センサー237は、コントローラー10のセンサーハブ193に接続される。これらの各センサーには、センサーハブ193から制御信号が入力される。また、LEDインジケーター67はセンサーハブ193に接続される。
センサーハブ193は、メインプロセッサー125の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ193は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ193は、予め設定されたタイミングで、各センサーの検出値をメインプロセッサー125に出力する。センサーハブ193は、メインプロセッサー125に対する出力のタイミングに合わせて、各センサーの検出値を一時的に保持する機能を備えてもよい。また、センサーハブ193は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー125に出力する機能を備えてもよい。
センサーハブ193は、メインプロセッサー125の制御に従ってLEDインジケーター67への通電を開始及び停止させ、外側カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
図5は、HMD100の制御系を構成する記憶部140、及び制御部150の機能ブロック図である。記憶部140は、不揮発性記憶部121により構成される論理的な記憶部であり、EEPROM215を含んでもよい。制御部150、及び、制御部150が有する各種の機能部は、メインプロセッサー125がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー125、メモリー118、及び不揮発性記憶部121により構成される。
記憶部140は、メインプロセッサー125が実行する各種のプログラム、及び、これらのプログラムにより処理されるデータを記憶する。
記憶部140は、オペレーティングシステム141、アプリケーションプログラム142、設定データ143、コンテンツデータ144、予定データ145、音声辞書データ146、及び、データセット148を記憶する。図においてはオペレーティングシステムをOSと略記する。
制御部150は、記憶部140が記憶するプログラムを実行することにより、記憶部140が記憶するデータを処理して、HMD100を制御する。
オペレーティングシステム141は、メインプロセッサー125が実行するHMD100の基本制御プログラムである。メインプロセッサー125は、電源スイッチ18の操作によってHMD100の電源がオンに切り替わると、オペレーティングシステム141をロードして実行する。メインプロセッサー125がオペレーティングシステム141を実行することで、制御部150の各種機能が実現される。
制御部150の機能とは、基本制御部151、表示制御部152、計時部153、通信制御部154、撮像制御部155、音声解析部156、検出制御部157、入力検出部158、及び、環境特定部159を含む。また、オペレーティングシステム141が実現する機能は、アプリケーション実行部160を含む。
また、制御部150は、学習部162として機能する。学習部162は、状態変数取得部163、推定モデル164を有する推定部165、評価部167、データセット生成部168、及び、更新部169を含む。
アプリケーションプログラム142は、メインプロセッサー125がオペレーティングシステム141を実行した状態で、メインプロセッサー125が実行するプログラムである。アプリケーションプログラム142は、制御部150の各種機能を利用する。記憶部140が記憶するアプリケーションプログラム142は1つではなく複数であってもよい。例えば、アプリケーションプログラム142は、画像コンテンツ再生、音声コンテンツ再生、ゲーム、カメラ撮影、文書作成、ウェブブラウジング、スケジュール管理、音声通信、電話、画像通信、経路ナビゲーション等の機能を実現する。
記憶部140は、複数のアプリケーションプログラム142を記憶することができ、各々のアプリケーションプログラム142は、アプリケーション実行部160により独立して、或いは相互に関連して実行される。
設定データ143は、HMD100の動作に係る各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ143に含めてもよい。
設定データ143は、HMD100においてアプリケーションプログラム142を実行する場合に使用されるデータを含む。例えば、設定データ143は、アプリケーションプログラム142を実行する条件を規定するデータを含む。具体的には、予め設定された条件が成立した場合に実行するよう設定されたアプリケーションプログラム142について、アプリケーションプログラム142の実行を開始する条件が設定データ143に含まれている。また、例えば、設定データ143は、アプリケーションプログラム142の実行時の画像表示サイズ、画面の向き、アプリケーションプログラム142が使用する制御部150の機能部あるいはHMD100のセンサー類等を示すデータを含んでもよい。
HMD100では、アプリケーションプログラム142を導入する際に、制御部150の機能によりインストール処理を実行する。インストール処理は、アプリケーションプログラム142を記憶部140に記憶するだけでなく、アプリケーションプログラム142の実行条件の設定等を含む処理である。インストール処理により、記憶部140に、アプリケーションプログラム142に対応する設定データ143が生成または記憶されると、アプリケーション実行部160がアプリケーションプログラム142を起動できる。
コンテンツデータ144は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータである。コンテンツデータ144は複数のコンテンツのデータを含んでもよい。コンテンツデータ144は、双方向型のコンテンツのデータであってもよい。例えば、画像表示部20がコンテンツを表示した場合に、コントローラー10に対する使用者Uの操作に応じて、コンテンツの表示形態やコンテンツ自体が切り替えられる。この場合、コンテンツデータ144は、コンテンツのデータとともに、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。コンテンツデータ144は、HMD100がサーバー400から取得したデータであってもよいし、外部メモリーインターフェイス191やUSBコネクター19を介して取得したデータであってもよい。
基本制御部151は、HMD100の各部を制御する基本機能を実行する。基本制御部151は、HMD100の電源がオンされたときに起動処理を実行し、HMD100の各部を初期化し、アプリケーション実行部160がアプリケーションプログラムを実行可能な状態にする。基本制御部151は、コントローラー10の電源をオフにする際のシャットダウン処理を実行し、アプリケーション実行部160を終了し、記憶部140が記憶する各種データを更新し、HMD100を停止させる。シャットダウン処理では画像表示部20に対する電源供給も停止し、HMD100全体がシャットダウンされる。基本制御部151は、HMD100の各部に対する電源供給を制御する機能を有してもよい。
表示制御部152は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。例えば、表示制御部152は、OLEDパネルによる画像の表示を実行させ、OLEDパネルの描画タイミングの制御、輝度の制御等を行う。
また、表示制御部152は、画像表示部20により表示する画像または映像の画像データに基づく画像処理を実行してもよい。この画像処理は、右表示ユニット22及び左表示ユニット24に送信する信号を生成する処理を含む。ここで表示制御部152が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。また、表示制御部152が実行する画像処理は、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を含んでもよい。また、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を含んでもよい。表示制御部152は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、画像表示部20に送信する。表示制御部152は、メインプロセッサー125がオペレーティングシステム141を実行して実現される機能により、画像処理を実行してもよい。また、表示制御部152の一部または全部の機能を実行するハードウェアを、メインプロセッサー125とは別のハードウェアで構成してもよい。このハードウェアとしては、例えば、DSP(Digital Signal Processor)が挙げられる。
計時部153は、時刻を計時する。例えば、計時部153は、RTC(Real Time Clock)として動作して、現在時刻を計時する。この場合、計時部153は、基本制御部151または検出制御部157の要求に応じて、或いは、予め設定された周期で、時刻を出力する。
通信制御部154は、通信部117によるデータ通信を実行する。通信制御部154は、通信部117が備える通信機能を制御して、指定された通信先の機器との間でデータ通信を実行する。例えば、通信制御部154は、通信部117により、サーバー400と通信を実行する。また、例えば、通信制御部154は、通信部117により、センサーユニット70との間で通信を実行する。通信制御部154の機能により、基本制御部151及びアプリケーション実行部160は、他の装置との間でデータを送受信し、例えば受信したデータを利用できる。
撮像制御部155は、外側カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部140に一時的に記憶する。外側カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部155は撮像画像データを外側カメラ61から取得して、記憶部140に一時的に記憶する。
撮像制御部155は、内側カメラ68を制御して撮像を実行させ、撮像画像データを生成し、記憶部140に一時的に記憶する。内側カメラ68が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部155は撮像画像データを内側カメラ68から取得して、記憶部140に一時的に記憶する。
検出制御部157は、FPGA194から入力される各種センサーの検出値を取得する。検出制御部157は、各種センサーの検出値に基づき、HMD100の周辺環境に関する検出を行ってもよい。例えば、検出制御部157は、外側カメラ61の撮像画像または照度センサー65の検出値から、HMD100の周辺の明るさを検出する。検出制御部157は、検出部の一例に対応する。
検出制御部157は、使用者Uの視線方向を検出する。例えば、検出制御部157は、内側カメラ68の撮像画像から使用者Uの右眼RE及び左眼LEの各々の画像を検出する。具体的には、撮像画像から、右眼RE、左眼LEの瞳孔または眼球表面に反射する反射光を検出することにより、公知の技術を利用して視線方向を検出できる。検出制御部157は、外側カメラ61の撮像画像から、使用者Uの頭部の向きを検出することにより、使用者Uの視線方向を検出してもよい。また、外側カメラ61の撮像画像から検出される視線方向と、内側カメラ68の撮像画像から検出される視線方向との両方に基づき、視線方向を検出してもよい。検出制御部157が検出する視線方向は、右眼RE及び左眼LEの各々の向きであってもよいし、右眼REと左眼LEを合わせて、使用者Uが注視する方向であってもよい。
検出制御部157は、内側カメラ68の撮像画像をもとに、右眼RE及び左眼LEの瞳孔のサイズを検出してもよい。この場合、検出制御部157は、瞳孔のサイズの変化をもとに、使用者Uの瞳孔の縮瞳または散瞳の状態を検出してもよい。また、検出制御部157は、内側カメラ68の撮像画像をもとに、右眼RE及び左眼LEのまぶたの開閉状態を検出してもよい。
また、検出制御部157は、使用者Uのジェスチャー操作による操作を検出してもよい。ジェスチャー操作は、アクションUI(User Interface)とも呼ばれ、使用者Uが指示体を動かす操作や指示体の形状を特定の形状とする操作であり、これらの操作をHMD100が光学的に検出する。指示体は、使用者Uの手、指、足などの身体の一部であるが、棒状やボール状のデバイスであってもよい。外側カメラ61の撮像範囲内でジェスチャー操作が行われた場合、外側カメラ61により操作される指示体を撮像できる。検出制御部157は、外側カメラ61の撮像画像データから、パターン認識処理等により指示体の画像を抽出し、抽出した画像から、指示体の形状、指示体の形状や位置の変化を求める。検出制御部157は、求めた指示体の形状、指示体の形状や位置の変化が、予め設定されたジェスチャー操作の態様に適合する場合に、操作を検出する。
また、検出制御部157は、センサーユニット70が送信する発汗センサー72、心拍センサー73、及び、筋電センサー74の検出値を取得する。
ここで、検出制御部157は、複数のセンサーの検出結果を複合的に処理してもよい。例えば、検出制御部157は、筋電センサー74の検出結果と、6軸センサー111及び/または6軸センサー235の検出結果とに基づき、使用者Uの動きの評価値を求めてもよい。検出制御部157は、6軸センサー111、235の検出結果から使用者Uの動きを特定し、筋電センサー74の検出結果から、使用者Uの筋肉の動作を特定する。検出制御部157は、使用者Uの動きと、使用者Uの筋肉の動作とを比較し、筋力の加え方を判定する。例えば、使用者Uが発揮した筋力が、使用者Uの動きに対して過度に大きい筋力か、適切な筋力か、適切な水準に達しない筋力かを判定する。
検出制御部157は、使用者Uの身体の状態を検出する検出部として機能する。検出制御部157は、センサーとともに検出部を構成してもよい。検出制御部157とともに検出部を構成するセンサーは、例えば、FPGA194に接続された各センサーが挙げられる。具体的には、内側カメラ68、6軸センサー235である。また、検出制御部157とともに検出部を構成するセンサーは、外側カメラ61、距離センサー64、6軸センサー111などを含んでもよい。また、検出制御部157とともに検出部を構成するセンサーは、音声インターフェイス181に接続されたマイク63であってもよいし、発汗センサー72、心拍センサー73、筋電センサー74を含んでもよい。
入力検出部158は、使用者Uによる入力を検出する。入力検出部158は、操作部170が出力する操作信号に基づき、使用者UのHMD100に対する操作を検出する。また、入力検出部158は、検出制御部157が取得した各種センサーの検出値、検出制御部157が検出した使用者Uの視線、瞳孔の状態、まぶたの開閉状態等を入力として検出してもよい。また、入力検出部158は、検出制御部157が使用者Uのジェスチャー操作を検出した場合、ジェスチャー操作の内容を入力として受け付ける。入力検出部158は、入力部の一例に対応する。
また、入力検出部158は、マイク63が集音した音声のデータを音声処理部180から取得し、使用者Uの音声による入力を受け付けてもよい。すなわち、入力検出部158は、音声コマンドを利用した使用者Uの入力を受け付けてもよい。
また、入力検出部158は、マイク63が集音した音声から検出した心拍数、呼吸数、呼吸の深さ、呼吸の荒さ等を検出し、検出結果を入力としてもよい。また、入力検出部158は、これらの検出結果に基づき使用者Uの身体状態を判定して、入力としてもよい。例えば、入力検出部158は、これらの検出結果や、使用者Uの身体状態の判定結果が、使用者Uの興奮度が高い状態を示している場合に、HMD100が実行している処理や動作に対する拒否の入力を検出してもよい。
入力検出部158は、検出制御部157が内側カメラ68を用いて特定した使用者Uの右眼RE及び左眼LEの視線方向、或いはその変化を入力として検出してもよい。人間の視線が固視微動またはマイクロサッカードと呼ばれる微細な動きを含むことが知られている。マイクロサッカードは人が注意を向けている方向に高頻度で発生する傾向があることも知られている。これを利用して、使用者Uの視野を複数の領域に分割し、各領域におけるマイクロサッカードの出現頻度を求めることにより、使用者Uの意識が向いている方向を特定できる。検出制御部157は、内側カメラ68の撮像画像をもとに、使用者Uの右眼REおよび左眼LEについて、方向別のマイクロサッカードの出現頻度を求め、使用者Uの注視方向を特定する。入力検出部158は、検出制御部157が求めた注視方向を、使用者Uの入力として取得してもよい。
環境特定部159は、外側カメラ61の撮像画像、及び/または照度センサー65の検出値を解析することにより、HMD100の周囲の環境を特定する。例えば、環境特定部159は、HMD100が屋内にあるか、屋外にあるかを特定する。また、環境特定部159は、HMD100が、予め設定された特定の場所にあるか否かを特定してもよい。具体的には、使用者Uの自宅、居室、職場等、事前に設定された場所にHMD100があるか否かを特定してもよい。また、環境特定部159は、HMD100の周囲の環境を、より詳細に特定してもよい。例えば、HMD100の周囲を、道路上、駐車場、公園、トイレ、風呂、洗面所、寝室、ダイニング、飲食店、小売店舗、工場、実験室、会議室、イベントホール等と特定してもよい。
入力検出部158が外側カメラ61の撮像画像から使用者Uのアクション、ジェスチャーによる入力を検出し、環境特定部159が外側カメラ61の撮像画像から環境を特定する処理は、1つの処理部により同時に、平行して、或いは異なるタイミングで実行してもよい。本実施形態で説明する例では、入力検出部158は、外側カメラ61の撮像画像から使用者Uの画像を抽出し、使用者Uによる入力を検出する。また、入力検出部158は、外側カメラ61に撮像画像における背景あるいは使用者Uの周囲の画像の変化に基づき、外側カメラ61が設けられた画像表示部20の動きを算出し、使用者Uの入力を検出する。これに対し、環境特定部159は、外側カメラ61の撮像画像から使用者Uの周囲の画像を抽出し、解析し、環境を特定する。
アプリケーション実行部160は、メインプロセッサー125が、オペレーティングシステム141を実行する状態で、アプリケーションプログラム142を実行する機能に相当する。アプリケーション実行部160は、アプリケーションプログラム142を実行して、アプリケーションプログラム142の各種機能を実現する。アプリケーション実行部160は、アプリケーションプログラム142の実行中に、制御部150の各部の機能を利用する。アプリケーション実行部160は、処理部の一例に対応する。
HMD100において、アプリケーション実行部160が実行するアプリケーションプログラム142は、処理部が実行する処理に相当する。この場合、アプリケーションプログラム142の種類が、処理の種類に相当する。処理の種類とは、アプリケーションプログラム142を特定する情報であってもよいし、アプリケーションプログラム142を分類した場合の種類を指す情報であってもよい。また、アプリケーションプログラム142が複数の機能を有する場合、処理の種類は、アプリケーションプログラム142の機能を指すと解釈してもよい。
アプリケーション実行部160は、設定データ143に設定された条件に従って、アプリケーションプログラム142を実行する。上述のように、HMD100が実行可能な、いくつかのアプリケーションプログラム142は、設定された条件が成立した場合に実行される。
アプリケーション実行部160は、アプリケーションプログラム142を実行する条件として、計時部153が出力する時刻、検出制御部157が取得および検出する検出結果、入力検出部158が検出する入力を取得する。
例えば、アプリケーション実行部160は、使用者Uの起床時に相当する時刻に、HMD100を装着する動きが検出された場合、電源制御に関するアプリケーションプログラム142を実行する。電源制御に関するアプリケーションプログラム142は、HMD100の電源を、スリープ状態と電源オン状態との間で切り替える。また、電源制御に関するアプリケーションプログラム142は、HMD100を置く動作を検出した場合に、HMD100をスリープ状態に移行させ、その後にHMD100を持ち上げる動作を検出した場合に、HMD100を電源オン状態に移行させる。
また、例えば、アプリケーション実行部160は、使用者Uの起床時に相当する時刻に、健康管理に関するアプリケーションプログラム142を実行する。健康管理に関するアプリケーションプログラム142は、センサーユニット70の検出値に基づき、使用者Uの体温、心拍数、血圧等を取得し、記録し、取得したデータや、取得したデータの集計結果を画像表示部20に表示する。
また、例えば、アプリケーション実行部160は、朝食時間に相当する時刻に、食事管理に関するアプリケーションプログラム142を実行する。食事管理に関するアプリケーションプログラム142は、外側カメラ61の撮像画像に基づき食事の内容を特定し、使用者Uが摂取した栄養成分を特定し、記録し、特定したデータや、特定したデータの集計結果を画像表示部20に表示する。
また、例えば、アプリケーション実行部160は、出勤時間に相当する時刻に、生活記録、いわゆるライフログに関するアプリケーションプログラム142を実行する。ライフログに関するアプリケーションプログラム142は、心拍センサー73、6軸センサー111、6軸センサー235の検出値に基づき使用者Uの運動の強度及び時間を特定し、記録する。そして、記録したデータや、記録したデータの集計結果を画像表示部20に表示する。
また、ライフログに関するアプリケーションプログラム142は、発汗センサー72、発汗センサー72の検出値に基づき、使用者Uのストレスや疲労度の判定を実行し、記録し、判定結果や、判定結果を集計した結果を画像表示部20に表示する。
また、例えば、アプリケーション実行部160は、入力検出部158が音声コマンドを検出した場合に、情報提供に関するアプリケーションプログラム142を実行する。情報提供に関するアプリケーションプログラム142は、気象情報、ニュース、交通情報、交通機関の経路案内、地図によるナビゲーション等を実行する。このアプリケーションプログラム142は、必要に応じて、上記情報の提供に必要なコンテンツデータ403を、サーバー400から取得する。
アプリケーション実行部160が、アプリケーションプログラム142の実行条件が成立したことをトリガーとして、アプリケーションプログラム142を実行する場合、表示制御部152が実行案内の画像を表示する。
図6は、HMD100が表示する画像の例を示す図であり、アプリケーションプログラム142を実行する前に表示される情報表示画面301の例を示す。
図6で、符号VRは、画像表示部20を頭部に装着した状態における使用者Uの視野を示す。HMD100はシースルー型の表示装置であるため、視野VRには、外景VOが含まれる。
画像表示部20は、外景VOに重なる画像表示領域DAを有する。画像表示領域DAは、HMD100が右導光板26、左導光板28により表示する画像が使用者Uに視認される領域である。
情報表示画面301は、アプリケーション実行部160が実行しようとするアプリケーションプログラム142の内容や種類を示す文字情報や画像を含む。つまり、情報表示画面301は、アプリケーションプログラム142を実行する前に、実行しようとするアプリケーションプログラム142を使用者Uに通知する画面である。
情報表示画面301は、指示操作部302、303を含む。指示操作部302は、情報表示画面301により通知されたアプリケーションプログラム142を実行するよう指示する操作部である。指示操作部303は、情報表示画面301により通知されたアプリケーションプログラム142を実行しないように指示する操作部である。
検出制御部157が、指示操作部302に対する操作を検出すると、入力検出部158は、アプリケーションプログラム142の実行を許可する入力を受け付ける。この場合、アプリケーション実行部160は、トリガーが発生したアプリケーションプログラム142を実行する。
検出制御部157が、指示操作部303に対する操作を検出すると、入力検出部158は、アプリケーションプログラム142の実行を拒否する入力を受け付ける。この場合、アプリケーション実行部160は、トリガーが発生したアプリケーションプログラム142を実行しない。
指示操作部302、及び指示操作部303に対する操作は、例えば、タッチセンサー172が検出する。また、検出制御部157が、外側カメラ61の撮像画像からジェスチャー操作を検出することにより、指示操作部302、及び指示操作部303に対する操作を検出しても良い。例えば、使用者Uが、視野VRにおいて視認される指示操作部302または指示操作部303に重なる位置に、使用者Uの手や指を移動させる操作を行ったときに、指示操作部302または指示操作部303に対する操作が検出されてもよい。この場合、検出制御部157は、外側カメラ61の撮像画像から使用者Uの手や指の位置を特定し、特定した位置が指示操作部302または指示操作部303の表示位置に重なるか否かを入力検出部158が判定すればよい。
[4.学習機能]
学習部162は、HMD100の動作中における各種の検出値に基づき、機械学習を行って推定モデル164を生成し、推定モデル164を用いた推定を実行する。
本実施形態の推定モデル164は、情報表示画面301を表示した場合に、使用者Uが指示操作部302を操作するか、指示操作部303を操作するかを推定するモデルであり、機械学習により生成される、いわゆる学習モデルである。
学習部162は、例えば、推定モデル164及び推定モデル164の学習を実行する人工知能(AI:Artificial Intelligence)である。学習部162は、ニューラルネットワークを構成するソフトウェア、またはハードウェアで構成され、深層学習を実行し、推定モデル164を構成する。推定モデル164は、推定部165により実行されるプログラムとして構成でき、記憶部140に記憶されてもよい。
状態変数取得部163は、状態変数を取得する。状態変数取得部163が取得する状態変数は、検出制御部157の検出結果、及び、環境特定部159が特定した環境を含む。例えば、状態変数は、6軸センサー111、及び6軸センサー235により検出される動きの検出値を含む。また、例えば、状態変数は、計時部153が出力する時刻を含んでもよい。また、例えば、状態変数は、発汗センサー72、心拍センサー73、及び筋電センサー74のうち1以上の検出結果を含んでもよい。また、例えば、状態変数は、検出制御部157が検出する視線RD、LDの方向を含んでもよい。また、例えば、状態変数は、検出制御部157が検出する使用者Uの瞳孔の状態の検出結果を含んでもよい。また、例えば、状態変数は、距離センサー64、照度センサー65、温度センサー66の検出値を含んでもよい。また、状態変数は、検出制御部157が複合的な検出を行った結果を含んでもよく、例えば、6軸センサー111、235、及び筋電センサー74の検出結果に基づく筋力の判定結果を含んでもよい。また、状態変数は、検出制御部157が判定した右眼RE及び左眼LEのマイクロサッカードに基づく注視方向を、入力検出部158が取得した結果を含んでもよい。また、状態変数は、入力検出部158が、マイク63が集音した音声から検出した心拍数、呼吸数、呼吸の深さ、呼吸の荒さ等の検出結果、或いは、これらの検出結果に基づき判定した使用者Uの身体状態を含んでもよい。
また、例えば、状態変数は、アプリケーション実行部160が実行しようとするアプリケーションプログラム142の種類を含んでもよい。
典型的な例として、状態変数は、計時部153が出力する時刻、環境特定部159が特定した環境、及び、アプリケーション実行部160が実行しようとするアプリケーションプログラム142の種類を含む。
推定部165は、推定モデル164に、状態変数取得部163が取得した状態変数を入力し、推定を行う。学習部162が学習を行っていない状態、及び、学習の初期において、推定モデル164は、初期状態のモデルである。
評価部167は、推定部165の推定結果を評価する。評価部167は、使用者Uが指示操作部302を操作するか指示操作部303を操作するかの推定結果と、入力検出部158が検出した実際の使用者Uの入力とを比較することにより、推定部165の推定結果に対し評価値を与える。評価値は、推定部165の推定結果と実際の使用者Uの入力とが一致した場合、及び、一致しなかった場合の2通りであってもよい。また、評価値は、複数回の情報表示画面301の表示に対する一致の度合いを示す割合であってもよい。
データセット生成部168は、状態変数取得部163が取得して推定モデル164に与えられた状態変数と、評価部167の評価値とを対応づけたデータセット148を生成する。
更新部169は、データセット148に基づいて推定モデル164を更新する。すなわち、更新部169は、データセット148を用いた学習を実行し、学習結果を反映するように推定モデル164を更新する。データセット148は、学習データセットの一例に対応する。
本実施形態で更新部169が実行する学習は、状態変数と評価値とが対応づけられたデータセット148を用いるので、いわゆる教師あり学習として実現できる。
例えば、評価部167は、推定部165の推定結果と実際の使用者Uの入力とが一致した場合に評価値「True」を出力し、一致しなかった場合に評価値「False」を出力する。データセット148の状態変数には、評価値「True」または「False」がラベルとして対応づけられる。更新部169は、例えば、データセット148から、評価値「True」がラベルされた状態変数を抽出して学習することにより、評価値「True」を出力する確率が高くなるように、推定モデル164を更新する。
また、更新部169が実行する学習は、いわゆる強化学習として実現できる。
この場合、評価部167は、評価値「True」と「False」を出力する代わりに、評価値に対応する報酬を出力する。報酬は、評価値が「True」の場合は高い報酬となり、評価値が「False」の場合は低い報酬となるよう設定される。更新部169は、評価部167が報酬を決定する毎に、推定モデル164を、報酬を反映するように更新する。この場合、環境特定部159は、推定部165が推定を行う毎に、報酬に基づき推定モデル164を更新する。
データセット生成部168は、推定部165が推定を行い、評価部167が評価を行う毎に、データセット148に状態変数と評価値との組み合わせのデータを蓄積する。更新部169は、データセット148が所定数蓄積される毎に学習を行ってもよいし、評価部167が評価を1回行う毎に学習を行って、推定モデル164を更新してもよい。
[5.HMDの動作]
図7は、HMD100の動作を示すフローチャートである。
アプリケーション実行部160は、検出制御部157が取得した各センサーの検出値、検出制御部157が検出した検出値、及び、入力検出部158が検出した入力に関する情報を取得する(ステップST1)。アプリケーション実行部160は、計時部153が出力する時刻を取得する(ステップST2)。アプリケーション実行部160は、環境特定部159が特定した外部環境に関する特定結果を取得する(ステップST3)。
アプリケーション実行部160は、設定データ143を参照し、HMD100が実行可能なアプリケーションプログラム142のいずれかの実行条件が成立したか否かを判定する(ステップST4)。
アプリケーションの実行条件が成立していないと判定した場合(ステップST4;NO)、アプリケーション実行部160は、本処理を終了する。図7の処理は、予め設定された周期で繰り返し実行される。
アプリケーションの実行条件が成立したと判定した場合(ステップST4;YES)、表示制御部152が、条件が成立したアプリケーションプログラム142に関する情報を含む情報表示画面301を表示する(ステップST5)。
続いて、状態変数取得部163が、ステップST1〜ST3で取得された情報等をもとに、状態変数を取得する(ステップST6)。ステップST6で、状態変数取得部163は、ステップST1〜ST3で取得された情報とは別に、新たに検出制御部157、入力検出部158、環境特定部159から情報を取得してもよい。
推定部165は、状態変数取得部163がステップST6で取得した状態変数に基づき、推定モデル164により推定を行う(ステップST7)。本実施形態では、推定部165は、使用者Uがアプリケーションプログラム142の実行の許可の入力を行うか、実行の拒否の入力を行うかを推定する。
アプリケーション実行部160は、ステップST7の推定結果に基づき、待機時間を設定する(ステップST8)。例えば、アプリケーション実行部160は、ステップST7の推定結果が実行の許可の入力である場合は第1の待機時間を設定し、推定結果が実行の拒否の入力である場合は第2の待機時間を設定する。ここで、第2の待機時間は、第1の待機時間よりも短くすることが好ましい。
アプリケーション実行部160は、情報表示画面301が表示制御部152により表示された状態で、入力検出部158が入力を検出したか否かを判定する(ステップST9)。入力が検出されたと判定した場合(ステップST9;YES)、アプリケーション実行部160は、入力内容が、アプリケーションプログラム142の実行の許可であるか否かを判定する(ステップST10)。
入力検出部158が指示操作部302の操作を検出した場合、アプリケーション実行部160は、実行の許可の入力であると判定する(ステップST10;YES)。この場合、学習部162が学習処理を実行し(ステップST11)、アプリケーション実行部160は、アプリケーションプログラム142を実行する(ステップST12)。アプリケーション実行部160は、アプリケーションプログラム142の実行中であっても、図7の動作をステップST1から実行できる。
一方、入力検出部158が入力を検出していないと判定した場合(ステップST9;NO)、アプリケーション実行部160は、情報表示画面301の表示を開始してからの経過時間を求める。アプリケーション実行部160は、ステップST8で設定した待機時間が経過したか否かを判定する(ステップST13)。
待機時間が経過していないと判定した場合(ステップST13;NO)、アプリケーション実行部160はステップST9に戻り、入力の有無を判定する(ステップST9)。ステップST13の判定後、ステップST9で判定を行うまでに、所定の待ち時間を設けてもよい。
待機時間が経過したと判定した場合(ステップST13;YES)、表示制御部152は、情報表示画面301の表示を停止する(ステップST14)。アプリケーション実行部160は、ステップST4で実行条件が成立したアプリケーションプログラム142の実行をキャンセルする(ステップST15)。
この場合、学習部162が学習処理を実行し(ステップST16)、アプリケーション実行部160は、本処理を終了する。
また、入力検出部158が指示操作部303の操作を検出した場合、アプリケーション実行部160は、実行の許可の入力でないと判定する(ステップST10;NO)。つまり、実行の拒否の入力であると判定する。この場合、制御部150はステップST15に移行して、アプリケーションプログラム142の実行をキャンセルする(ステップST15)。
ステップST8では、情報表示画面301が表示された状態で入力を待機する時間を、推定結果に基づき設定する。従って、使用者Uがアプリケーションプログラム142の実行を拒否することが推定された場合に、情報表示画面301の表示時間を短くする効果がある。この場合、使用者Uがアプリケーションプログラム142の実行を拒否することを望んでいるときに、情報表示画面301の表示が速やかに停止されるので、外景VOの視認の妨げにならない。また、使用者Uがアプリケーションプログラム142の実行を許可することが推定される場合に、情報表示画面301の表示時間を長くする効果がある。この場合、使用者Uがアプリケーションプログラム142の実行を望んでいるときに、情報表示画面301が比較的長い時間、表示されるので、使用者Uは急いで指示操作部302を操作しなくてもよく、実行の許可の入力を行う時間的な余裕を得られる。このように、推定部165の推定結果を、入力の待ち時間に反映させることにより、使用者Uの意図を反映した動作を行える。
図8は、HMD100の動作を示すフローチャートであり、図7のステップST11、ST16に示した学習処理を詳細に示す。
評価部167は、ステップST7で推定部165が推定した推定結果と、ステップST10の判定結果とを比較して、推定結果を評価する(ステップST21)。
データセット生成部168は、推定部165が推定に用いた状態変数を取得する(ステップST22)。データセット生成部168は、取得した状態変数と、ステップST21の評価結果とを対応づけたデータセット148を生成する(ステップST23)。
更新部169は、ステップST23で生成されたデータセット148を用いて機械学習を実行し、推定モデル164を更新する(ステップST24)。
図7に示した処理では、ステップST9で入力検出部158が入力を検出せず、ステップST12で待機時間が経過した場合に、ステップST16に移行して学習を行う。この場合、評価部167は、使用者Uがアプリケーションプログラム142の実行を拒否する入力を行った場合とみなして、評価を行ってもよい。また、入力検出部158が入力を検出しないうちに待機時間が経過した場合に対応する評価値を出力してもよい。
HMD100は、図7及び図8に示した動作で学習部162が学習を繰り返した結果、推定部165の推定結果が入力結果と一致する精度が、設定された閾値を超えた場合、情報表示画面301を表示せずアプリケーションプログラム142を実行してもよい。つまり、推定部165が、使用者Uがアプリケーションプログラム142の実行を許可すると推定した場合に、情報表示画面301を表示せずアプリケーション実行部160によりアプリケーションプログラム142を実行する。また、推定部165が、使用者Uがアプリケーションプログラム142の実行を拒否すると推定した場合に、情報表示画面301を表示せずアプリケーションプログラム142の実行をキャンセルしてもよい。この場合、推定モデル164を用いることで、使用者Uが入力を行わなくても、使用者Uの希望する通りに、HMD100が動作する状態を実現できる。
制御部150は、学習部162の学習が進んだ結果、推定部165の推定結果の信頼度が高まった場合には、情報表示画面301の表示および使用者Uの入力を省略してもよい。すなわち、推定部165の推定結果に従って、使用者Uの入力がなくても、情報表示画面301における指示操作部302と指示操作部303のいずれかを選択して、動作を継続してもよい。
図7に示した動作は、使用者Uの入力を要する動作モードであり、以下では入力モードと呼ぶ。これに対し、使用者Uが入力操作により指示操作部302または指示操作部303を選択することなく、制御部150が動作を継続する動作モードを、入力省略モードと呼ぶ。
図8は、HMD100の動作を示すフローチャートであり、入力モードと入力省略モードとを切り替える動作を示す。
基本制御部151は、推定部165の推定結果の評価を取得して、統計値を算出する(ステップST31)。ステップST31で、基本制御部151は、図8のステップST21における評価の結果を、直近の設定された回数分だけ取得し、統計値を算出する。統計値は、平均値、中央値、最大値、最小値、或いはその他の統計的処理により得られる値である。
基本制御部151は、評価の統計値が、設定された基準を満たすか否かを判定する(ステップST32)。設定された基準は、推定部165の推定結果が現実の使用者Uの意向に適合したと判定できる基準であり、推定部165の推定結果の尤度の基準といえる。
基準を満たすと判定した場合(ステップST32;YES)、基本制御部151は、制御部150の動作モードとして、入力省略モードを実行するよう設定する(ステップST33)。また、基準を満たさないと判定した場合(ステップST32;NO)、基本制御部151は、制御部150の動作モードとして、入力モードを実行するよう設定する(ステップST34)。
図10は、HMD100の動作を示すフローチャートであり、入力省略モードにおける制御部150の動作を示す。
アプリケーション実行部160は、ステップST1と同様に、検出制御部157が取得した各センサーの検出値、検出制御部157が検出した検出値、及び、入力検出部158が検出した入力に関する情報を取得する(ステップST41)。アプリケーション実行部160は、ステップST2と同様に、計時部153が出力する時刻を取得する(ステップST42)。アプリケーション実行部160は、ステップST3と同様に、環境特定部159が特定した外部環境に関する特定結果を取得する(ステップST43)。
アプリケーション実行部160は、ステップST4と同様に、設定データ143を参照し、HMD100が実行可能なアプリケーションプログラム142のいずれかの実行条件が成立したか否かを判定する(ステップST44)。
アプリケーションの実行条件が成立していないと判定した場合(ステップST44;NO)、アプリケーション実行部160は、本処理を終了する。図10の処理は、予め設定された周期で繰り返し実行される。
アプリケーションの実行条件が成立したと判定した場合(ステップST44;YES)、表示制御部152が、条件が成立したアプリケーションプログラム142に関する情報を含む画面を表示する(ステップST45)。ステップST45で表示される画面は、情報表示画面301とは異なる。具体的には、指示操作部302や指示操作部303のように、使用者Uの入力を求める操作子がなく、条件が成立したアプリケーションプログラム142に関する情報を含む。このため、ステップST45で表示される画面は、実行しようとするアプリケーションプログラム142を使用者Uに示すことのみを目的とした画面である。
状態変数取得部163が、ステップST6と同様に、ステップST41〜ST43で取得された情報等をもとに状態変数を取得する(ステップST46)。状態変数取得部163は、ステップST46で、検出制御部157、入力検出部158、環境特定部159から情報を取得してもよい。
推定部165は、ステップST7と同様に、状態変数取得部163がステップST6で取得した状態変数に基づき、推定モデル164により推定を行う(ステップST47)。本実施形態では、推定部165は、アプリケーションプログラム142の実行を許可するか拒否かを推定する。
アプリケーション実行部160は、ステップST47の推定結果に基づき、ステップST45で表示した画面に、実行するか否かを表示する。図10の動作で、制御部150は、推定部165の推定結果の通りに、アプリケーションプログラム142の実行または不実行を選択する。ステップST48では、アプリケーションプログラム142の実行または不実行を使用者Uに通知する表示を行う。
アプリケーション実行部160は、ステップST48で画面を表示制御部152により表示させた状態で、使用者Uによる入力を、入力検出部158により検出する(ステップST49)。入力検出部158は、ステップST49で、操作部170の操作、検出制御部157が検出する各種センサーの検出値から特定される入力操作等による入力を検出する。また、入力検出部158は、内側カメラ68の撮像画像から検出制御部157が検出するマイクロサッカードの出現頻度が高い方向を特定することにより、入力を受け付けてもよい。
入力検出部158が入力を検出した場合(ステップST49;YES)、アプリケーション実行部160は、入力内容が、ステップST47の推定結果を否定する内容であるか否かを判定する(ステップST50)。
ステップST47の推定結果を否定する入力である場合(ステップST50;YES)、アプリケーション実行部160は、アプリケーションプログラム142の実行の可否に関する推定結果を変更する(ステップST51)。すなわち、推定部165の推定結果を、ステップST49で検出した入力に従った内容に更新する(ステップST51)。
アプリケーション実行部160は、ステップST51で更新した結果に従って、動作を継続する(ステップST52)。すなわち、ステップST51で、アプリケーションプログラム142を実行するように結果を更新した場合には、アプリケーションプログラム142を実行する。また、ステップST51で、アプリケーションプログラム142を実行しないように結果を更新した場合は、アプリケーションプログラム142を実行しない。
学習部162は、ステップST51で推定結果を更新したことに基づき、学習処理を実行する(ステップST53)。ステップST53で実行する学習処理は、図8を参照して説明した処理と同様である。ステップST51を経由してステップST53を実行する場合、ステップST21では、予測結果が否定されたことに対応する評価を行う。また、後述するように、ステップST55を経由してステップST53を実行する場合、ステップST21では、予測結果が否定されなかったこと、すなわちステップST47の推定結果が肯定されたことに対応する評価を行う。
一方、入力検出部158は、入力を検出しない場合(ステップST49;NO)、予め設定された待機時間が経過したか否かを判定する(ステップST54)。待機時間が経過していない場合(ステップST54;NO)、ステップST49に戻る。待機時間が経過した場合(ステップST54;YES)、アプリケーション実行部160は、ステップST47の推定結果の通りに動作を実行し(ステップST55)、ステップST53に移行する。例えば、ステップST47で、アプリケーションプログラム142を実行すると推定した場合には、アプリケーションプログラム142を実行する。また、ステップST47で、アプリケーションプログラム142を実行しないと推定した場合は、アプリケーションプログラム142を実行しない。
このように、HMD100は、学習部162の学習が蓄積された場合に、情報表示画面301を表示して使用者Uに入力を求めることなく、使用者Uの意向に沿って、アプリケーションプログラム142の実行の可否を自ら推定し、動作を継続できる。
また、アプリケーションプログラム142の実行の可否を推定した後、使用者Uが入力を行って、推定結果を更新させることが可能であるため、使用者Uが望まない動作が継続されることを防止できる。
さらに、アプリケーションプログラム142の実行の可否を推定した結果に基づいて学習を継続することも可能であるため、より高精度な推定を行うことができる。
また、図10の動作を実行した場合に、ステップST47の推定結果が否定されたか肯定されたかを評価結果として、図9の動作を実行してもよい。この場合、使用者Uの状況や好みの変化により、推定部165の推定結果が、使用者Uの意向に合わないことが多くなった場合に、動作モードを入力省略モードから入力モードに切り替えることも可能となる。
以上説明したように、本発明を適用したHMD100は、使用者の頭部に装着される画像表示部20を備える。HMD100は、使用者の身体の状態を検出する検出制御部157と、入力を受け付ける入力検出部158とを備える。HMD100は、条件が成立した場合に処理を実行するアプリケーション実行部160を備える。HMD100は、アプリケーション実行部160が処理を実行する際に処理に関する情報を含む情報表示画面301を画像表示部20に表示させる表示制御部152を備える。アプリケーション実行部160は、情報表示画面301が表示された状態で入力検出部158によって実行指示を受け付けた場合に、処理を実行する。HMD100は、学習部162を備える。学習部162は、検出制御部157の検出結果と、入力検出部158により受け付けた入力とに基づくデータセット148を生成するデータセット生成部168を有する。学習部162は、検出制御部157の検出結果に基づき、推定モデル164により処理の実行の可否を推定し、データセット148に従って推定モデル164を更新する。
画像表示部20の動作は表示ステップの一例に対応し、アプリケーション実行部160の動作は実行ステップの一例に対応する。推定部165の動作は推定ステップの一例に対応し、データセット生成部168の動作はデータセット生成ステップの一例に対応する。更新部169の動作は学習ステップの一例に対応する。
表示装置、表示装置を対象とする学習装置、及び、表示装置の制御方法を適用したHMD100によれば、使用者Uの意図を推定できる。このため、情報表示画面301の表示を適切に制御することができる。このため、アプリケーションプログラム142の実行に関して、使用者Uの入力操作の利便性の向上を図ることができる。また、学習部162による学習結果を利用して、アプリケーションプログラム142の実行を制御する態様に発展させることができる。
推定モデル164は、検出制御部157の検出結果や環境特定部159の特定の結果と、条件を満たすアプリケーションプログラム142の種類とに基づき、使用者Uがアプリケーションプログラム142の実行を指示するか否かを推定する学習モデルである。また、使用者Uがアプリケーションプログラム142の実行を指示するか、実行を拒否するかを推定する学習モデルであるといってもよい。推定モデル164は、学習部162の学習機能により、データセット生成部168が生成する学習データセットであるデータセット148に基づき学習を行う。データセット148は、例えば、少なくとも検出制御部157の検出結果、入力検出部158が検出した入力、環境特定部159の特定結果のいずれかと、条件を満たすアプリケーションプログラム142の種類とを対応づけたデータとすることができる。
推定モデル164は、例えば、検出制御部157の検出結果や環境特定部159の特定の結果と、使用者Uが実行を望むアプリケーションプログラム142を推定してもよい。また、情報表示画面301を表示するか否かを推定してもよい。さらに、推定モデル164は、入力モードと、入力省略モードとを切り替えるべきか否かを推定するものであってもよい。
HMD100は、アプリケーションプログラム142を、条件の成立によりアプリケーション実行部160が実行する構成において、使用者Uの入力に応じてアプリケーションプログラム142を実行、またはキャンセルできる。この構成において、使用者Uがアプリケーションプログラム142の実行を許可するか、拒否するかを推定できる。従って、アプリケーションプログラム142を自動的に実行するだけでなく、使用者Uの意図に関する情報を得ることができる。
例えば、情報表示画面301を表示する待ち時間に推定結果を反映させたり、入力を待たずにアプリケーションプログラム142を実行またはキャンセルさせたりする態様に発展することが期待できる。
そして、使用者Uが入力を急がなければならない状態を解消したり、使用者Uによる操作を待つ状態を解消することも期待でき、HMD100の利便性を損なうことなく、より一層の利便性の向上が期待できる。
学習部162は、条件が成立したアプリケーションプログラム142の種類及び検出制御部157の検出結果に基づき、推定モデル164により処理の実行の可否を推定する。データセット生成部168は、検出制御部157の検出結果と、アプリケーションプログラム142の種類と、入力検出部158により受け付けた入力とに基づきデータセット148を生成する。このため、検出制御部157の検出結果を含む状態変数と、アプリケーションプログラム142の種類と、を含む多変量に基づく学習を実行して、高精度な推定が可能な推定モデル164を得ることができる。
検出制御部157は、画像表示部20に設けられたセンサーにより検出を行う。センサーは、使用者の瞳の状態または視線を検出する目センサーとしての内側カメラ68、使用者の心拍を検出する心拍センサー73、及び、使用者の発汗を検出する発汗センサー72の少なくともいずれかである。また、検出制御部157が用いるセンサーは、筋電センサー74であってもよいし、6軸センサー111、235であってもよい。このため、使用者Uの身体の状態を状態変数として学習を行うことができるので、使用者Uの意図をより高精度で推定可能な推定モデル164を得ることができる。
HMD100は、画像表示部20に設けられる外側カメラ61と、撮像画像に基づき環境を特定する環境特定部159と、を備える。学習部162は、環境特定部159の特定結果、及び、検出制御部157の検出結果に基づき、推定モデル164により処理の実行の可否を推定する。データセット生成部168は、検出制御部157の検出結果と、環境特定部159の特定結果と、入力検出部158により受け付けた入力とに基づきデータセット148を生成する。このため、HMD100の外部の環境を反映した学習を行うことができるので、使用者Uの意図を、より高精度で推定可能な推定モデル164を得ることができる。
表示制御部152は、画像表示部20に情報を表示してから所定の表示時間、すなわち待機時間が経過すると表示を停止させる。待機時間は、学習部162が推定モデル164により推定した結果に応じて決定される。例えば、使用者Uがアプリケーションプログラム142の実行を拒否することが推定された場合に、情報表示画面301の表示時間を短くすることができる。これにより、使用者Uがアプリケーションプログラム142の実行を拒否することを望んでいるときに、情報表示画面301の表示が速やかに停止されるので、外景VOの視認の妨げにならない。また、使用者Uがアプリケーションプログラム142の実行を許可することが推定される場合に、情報表示画面301の表示時間を長くすることもできる。これにより、使用者Uがアプリケーションプログラム142の実行を望んでいるときに、情報表示画面301が比較的長い時間、表示されるので、使用者Uは急いで指示操作部302を操作しなくてもよく、実行の許可の入力を行う時間的な余裕を得られる。このように、推定部165の推定結果を、入力の待ち時間に反映させることにより、使用者Uの意図を反映した動作を行える。
また、図10を参照して説明したように、制御部150は、実行しようとするアプリケーションプログラム142の種類に関する情報を、情報表示画面301とは異なる画面で表示した状態で、推定部165の推定結果に基づき、アプリケーションプログラム142の実行の可否を決定してもよい。この場合、使用者Uによる入力を必須とせず、学習した推定モデル164を利用して、使用者Uの意向に従ってアプリケーションプログラム142を実行できる。
[6.他の実施形態]
上記実施形態は本発明を適用した一態様に過ぎず、種々の態様に変更可能である。
例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者Uの左眼に対応して画像を表示する表示部と、使用者Uの右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者Uの身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、コントローラー10と画像表示部20とが一体に構成され、使用者Uの頭部に装着される構成とすることも可能である。また、コントローラー10として、ノート型コンピューター、タブレット型コンピューター、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、センサーユニット70は、画像表示部20と一体に構成してもよい。
また、上記実施形態では、画像表示部20とコントローラー10とが接続ケーブル40を介して接続された構成を例に挙げて説明したが、コントローラー10と画像表示部20とが無線通信回線によって接続される構成であってもよい。
また、画像光を使用者Uの眼に導く光学系として、右導光板26及び左導光板28は、ハーフミラーを用いてもよいし、回折格子、プリズム等を用いてもよい。また、画像表示部20は、ホログラフィー表示部を用いてもよい。
また、上記各実施形態では、画像表示部20はOLEDユニット221、241により画像光を生成する構成として説明したが、本発明はこれに限定されない。OLEDユニット221、241は、OLEDパネルと、OLEDパネルを駆動するOLED駆動回路とを有する構成を例示した。ここで、OLEDパネルは、有機エレクトロルミネッセンスにより発光しそれぞれ発する発光素子により構成される自発光型の表示パネルである。より具体的な例として、OLEDパネルは、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置された構成が挙げられる。変形例として、右表示ユニット22及び左表示ユニット24が、それぞれ、光源部としてのOLEDパネルと、光源部が発する光を変調して複数の色光を含む画像光を出力する変調素子と、を備える映像素子として構成されてもよい。このように、右表示ユニット22、左表示ユニット24は、変調素子により変調された画像光を、投写光学系および導光板等を利用して使用者Uの眼に導くことにより、使用者Uに虚像を認識させる構成とすることができる。この変形例の画像表示部において、OLEDパネルが発する光を変調する変調装置は、透過型液晶パネルを用いてもよいし、透過型液晶パネルに代えて反射型液晶パネルを用いてもよいし、デジタル・マイクロミラー・デバイスを用いてもよい。光源はレーザー光源であってもよいし、LEDであってもよい。また、画像表示部20は、例えば、レーザースキャン方式のレーザー網膜投影型のHMDとしてもよい。
また、ブロック図に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121またはコントローラー10内の他の記憶装置に記憶されてもよい。また、外部の装置に記憶されたプログラムをUSBコネクター19、通信部117、外部メモリーインターフェイス191などを介して取得して実行する構成としてもよい。また、コントローラー10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー125と同様のプロセッサーが画像表示部20に配置されてもよいし、コントローラー10が備えるメインプロセッサー125と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
1…表示システム、10…コントローラー、20…画像表示部(表示部)、30…ヘッドセット、40…接続ケーブル、61…外側カメラ(撮像部)、63…マイク、64…距離センサー、65…照度センサー、66…温度センサー、67…LEDインジケーター、68…内側カメラ、70…センサーユニット、71…センサー通信部、72…発汗センサー、73…心拍センサー、100…HMD(表示装置、学習装置)、111…6軸センサー、113…磁気センサー、115…GPS受信部、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、125…メインプロセッサー、140…記憶部、141…オペレーティングシステム、142…アプリケーションプログラム、143…設定データ、144…コンテンツデータ、145…予定データ、146…音声辞書データ、148…データセット(学習データセット)、150…制御部、151…基本制御部、153…計時部、154…通信制御部、155…撮像制御部、156…音声解析部、157…検出制御部(検出部)、158…入力検出部(入力部)、159…環境特定部、160…アプリケーション実行部(処理部)、162…学習部、163…状態変数取得部、164…推定モデル、165…推定部、167…評価部、168…データセット生成部、169…更新部、170…操作部、172…タッチセンサー、174…スイッチ、180…音声処理部、181…音声インターフェイス、191…外部メモリーインターフェイス、193…センサーハブ、194…FPGA、197…インターフェイス、211…インターフェイス、213…受信部、215…EEPROM、221…OLEDユニット、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、N…通信ネットワーク、U…使用者。

Claims (10)

  1. 使用者の頭部に装着される表示部と、
    前記使用者の身体の状態を検出する検出部と、
    入力を受け付ける入力部と、
    条件が成立した場合に処理を実行する処理部と、
    前記処理部が前記処理を実行する際に前記処理に関する情報を前記表示部に表示させる表示制御部と、を備え、
    前記処理部は、前記処理に関する情報が表示された状態で前記入力部によって実行指示を受け付けた場合に、前記処理を実行し、
    前記検出部の検出結果と、前記入力部により受け付けた入力とに基づく学習データセットを生成するデータセット生成部を有し、前記検出部の検出結果に基づき、推定モデルにより前記処理の実行の可否を推定し、前記学習データセットに従って前記推定モデルを更新する学習部と、を備える表示装置。
  2. 前記学習部は、前記処理の種類及び前記検出部の検出結果に基づき、前記推定モデルにより前記処理の実行の可否を推定し、
    前記データセット生成部は、前記検出部の検出結果と、前記処理の種類と、前記入力部により受け付けた入力とに基づき前記学習データセットを生成する、請求項1記載の表示装置。
  3. 前記検出部は、前記表示部に設けられたセンサーにより検出を行い、
    前記センサーは、前記使用者の瞳の状態または視線を検出する目センサー、前記使用者の心拍を検出する心拍センサー、及び、前記使用者の発汗を検出する発汗センサーの少なくともいずれかである、請求項1または2記載の表示装置。
  4. 前記検出部は、前記表示部に設けられたセンサーにより検出を行い、
    前記センサーは、前記表示部の動きを検出する動きセンサー、及び、前記使用者の筋肉の動きを検出するセンサーの少なくともいずれかである、請求項1または2記載の表示装置。
  5. 前記表示部に設けられる撮像部と、
    前記撮像部の撮像画像に基づき環境を特定する環境特定部と、を備え、
    前記学習部は、前記環境特定部の特定結果、及び、前記検出部の検出結果に基づき、前記推定モデルにより前記処理の実行の可否を推定し、
    前記データセット生成部は、前記検出部の検出結果と、前記環境特定部の特定結果と、前記入力部により受け付けた入力とに基づき前記学習データセットを生成する、請求項1から4のいずれか1項に記載の表示装置。
  6. 前記表示制御部は、前記表示部に前記情報を表示してから所定の表示時間が経過すると表示を停止させ、
    前記表示時間は、前記学習部が前記推定モデルにより推定した結果に応じて決定される、請求項1から5のいずれか1項に記載の表示装置。
  7. 前記処理部は、前記処理に関する情報が表示された状態で前記入力部による入力を受け付けない場合に、前記推定モデルを用いた推定結果に従って、前記処理の実行の可否を決定する、請求項1から6のいずれか1項に記載の表示装置。
  8. 使用者の頭部に装着される表示部と、
    前記使用者の身体の状態を検出する検出部と、
    条件が成立した場合に処理を実行する処理部と、
    前記処理部が前記処理を実行する際に前記処理に関する情報を前記表示部に表示させる表示制御部と、を備え、
    前記処理部は、前記処理に関する情報が表示された状態で前記検出部の検出結果により、前記処理を実行し、
    前記検出部の検出結果の組合せにより前記処理の実行の可否の推定モデルを更新する学習部と、を備える表示装置。
  9. 使用者の頭部に装着される表示部と、前記使用者の身体の状態を検出する検出部と、を備える表示装置を対象として処理を行う学習装置であって、
    入力を受け付ける入力部と、
    条件が成立した場合に処理を実行する処理部と、
    前記処理部が前記処理を実行する際に前記処理に関する情報を前記表示部に表示させる表示制御部と、を備え、
    前記処理部は、前記処理に関する情報が表示された状態で前記入力部によって実行指示を受け付けた場合に、前記処理を実行し、
    前記検出部の検出結果と、前記入力部により受け付けた入力とに基づく学習データセットを生成するデータセット生成部を有し、前記検出部の検出結果に基づき、推定モデルにより前記処理の実行の可否を推定し、前記学習データセットに従って前記推定モデルを更新する学習部と、を備える学習装置。
  10. 使用者の頭部に装着される表示部を備える表示装置の制御方法であって、
    条件が成立した場合に、実行する処理に関する情報を前記表示部に表示する表示ステップと、
    前記情報が表示された状態で、実行指示の入力を受け付けた場合に、前記処理を実行する実行ステップと、
    前記使用者の状態を検出した検出結果に基づき、推定モデルにより前記処理の実行の可否を推定する推定ステップと、
    前記検出結果と前記入力とに基づく学習データセットを生成するデータセット生成ステップと、
    前記学習データセットに従って前記推定モデルを更新する学習ステップと、を含む表示装置の制御方法。
JP2018211050A 2018-11-09 2018-11-09 表示装置、及び、表示装置の制御方法 Active JP7271909B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018211050A JP7271909B2 (ja) 2018-11-09 2018-11-09 表示装置、及び、表示装置の制御方法
US16/677,827 US11216066B2 (en) 2018-11-09 2019-11-08 Display device, learning device, and control method of display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018211050A JP7271909B2 (ja) 2018-11-09 2018-11-09 表示装置、及び、表示装置の制御方法

Publications (2)

Publication Number Publication Date
JP2020077271A true JP2020077271A (ja) 2020-05-21
JP7271909B2 JP7271909B2 (ja) 2023-05-12

Family

ID=70551332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018211050A Active JP7271909B2 (ja) 2018-11-09 2018-11-09 表示装置、及び、表示装置の制御方法

Country Status (2)

Country Link
US (1) US11216066B2 (ja)
JP (1) JP7271909B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220010899A (ko) * 2020-07-20 2022-01-27 현대모비스 주식회사 차량용 보안해제 장치 및 방법
US20230236665A1 (en) * 2020-07-30 2023-07-27 Hewlett-Packard Development Company, L.P. Head-mounted display sensor status
CN112586824A (zh) * 2020-12-28 2021-04-02 浙江大学 一种用于畜禽养殖场的巡检头盔及巡检方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113437A (ja) * 2009-11-30 2011-06-09 Brother Industries Ltd 入力装置、入力方法及び入力プログラム
JP2013538472A (ja) * 2010-06-10 2013-10-10 クアルコム,インコーポレイテッド ジェスチャーおよび/または位置に基づく情報のプリフェッチ
WO2015068440A1 (ja) * 2013-11-08 2015-05-14 ソニー株式会社 情報処理装置、制御方法およびプログラム
WO2017002488A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017537370A (ja) * 2014-09-30 2017-12-14 マイクロソフト テクノロジー ライセンシング,エルエルシー ウェアラブルデバイスおよびモバイルデバイスを介した自然運動ベースの制御
JP2018142258A (ja) * 2017-02-28 2018-09-13 オムロン株式会社 生産管理装置、方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7725419B2 (en) * 2003-09-05 2010-05-25 Samsung Electronics Co., Ltd Proactive user interface including emotional agent
JP2008217716A (ja) 2007-03-07 2008-09-18 Sharp Corp 認証装置、画像形成装置、認証システム、認証プログラム、記録媒体および認証方法
JP5977922B2 (ja) * 2011-02-24 2016-08-24 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法、透過型頭部装着型表示装置
US8958631B2 (en) * 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
US9541986B2 (en) * 2012-10-08 2017-01-10 Google Inc. Adaptive screen timeouts based on user preferences, interaction patterns and active applications
KR101571096B1 (ko) * 2013-11-11 2015-11-23 주식회사 시공미디어 사용자 적응형 인터페이스 제공 시스템 및 방법
WO2016187351A1 (en) * 2015-05-18 2016-11-24 Daqri, Llc Context-based augmented reality content delivery
US10514766B2 (en) * 2015-06-09 2019-12-24 Dell Products L.P. Systems and methods for determining emotions based on user gestures
JP6629528B2 (ja) 2015-06-16 2020-01-15 株式会社ファイン 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム
US10769551B2 (en) * 2017-01-09 2020-09-08 International Business Machines Corporation Training data set determination

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113437A (ja) * 2009-11-30 2011-06-09 Brother Industries Ltd 入力装置、入力方法及び入力プログラム
JP2013538472A (ja) * 2010-06-10 2013-10-10 クアルコム,インコーポレイテッド ジェスチャーおよび/または位置に基づく情報のプリフェッチ
WO2015068440A1 (ja) * 2013-11-08 2015-05-14 ソニー株式会社 情報処理装置、制御方法およびプログラム
JP2017537370A (ja) * 2014-09-30 2017-12-14 マイクロソフト テクノロジー ライセンシング,エルエルシー ウェアラブルデバイスおよびモバイルデバイスを介した自然運動ベースの制御
WO2017002488A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018142258A (ja) * 2017-02-28 2018-09-13 オムロン株式会社 生産管理装置、方法およびプログラム

Also Published As

Publication number Publication date
US11216066B2 (en) 2022-01-04
JP7271909B2 (ja) 2023-05-12
US20200150758A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
EP3571673B1 (en) Method for displaying virtual image, storage medium and electronic device therefor
US10686972B2 (en) Gaze assisted field of view control
CN106471419B (zh) 管理信息显示
US8971570B1 (en) Dual LED usage for glint detection
JP6929644B2 (ja) 注視によるメディア選択及び編集のためのシステム並びに方法
US9213405B2 (en) Comprehension and intent-based content for augmented reality displays
KR102179142B1 (ko) 착용식 식품 영양 피드백 시스템
US9342610B2 (en) Portals: registered objects as virtualized, personalized displays
US9171198B1 (en) Image capture technique
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US9690099B2 (en) Optimized focal area for augmented reality displays
US20170111723A1 (en) Personal Area Network Devices System and Method
US20160131902A1 (en) System for automatic eye tracking calibration of head mounted display device
US20130241805A1 (en) Using Convergence Angle to Select Among Different UI Elements
CN112181152A (zh) 基于mr眼镜的广告推送管理方法、设备及应用
TW201535155A (zh) 藉由凝視偵測進行遠端裝置控制
US11216066B2 (en) Display device, learning device, and control method of display device
JP2019185531A (ja) 透過型頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
WO2016208261A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2018055416A (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、及び、プログラム
US20200143774A1 (en) Information processing device, information processing method, and computer program
US20200159318A1 (en) Information processing device, information processing method, and computer program
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
US20240087221A1 (en) Method and apparatus for determining persona of avatar object in virtual space
KR102564202B1 (ko) 사용자의 스트레스 완화를 위해 상호작용하는 가상동물을 제공하는 전자장치 및 이의 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230410

R150 Certificate of patent or registration of utility model

Ref document number: 7271909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150