JP2023136238A - 情報表示システム、情報表示方法、及びプログラム - Google Patents
情報表示システム、情報表示方法、及びプログラム Download PDFInfo
- Publication number
- JP2023136238A JP2023136238A JP2022041752A JP2022041752A JP2023136238A JP 2023136238 A JP2023136238 A JP 2023136238A JP 2022041752 A JP2022041752 A JP 2022041752A JP 2022041752 A JP2022041752 A JP 2022041752A JP 2023136238 A JP2023136238 A JP 2023136238A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- information
- user
- image
- display system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 102
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 238000005259 measurement Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 42
- 238000010586 diagram Methods 0.000 description 32
- 230000000007 visual effect Effects 0.000 description 23
- 230000002093 peripheral effect Effects 0.000 description 21
- 238000012545 processing Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 14
- 230000010365 information processing Effects 0.000 description 10
- 230000004397 blinking Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000002570 electrooculography Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】利用者が装着するウェアラブル端末を用いて、利用者が注視していない周辺の対象物に関する情報を、利用者に適切に視認させる。【解決手段】情報表示システムは、利用者の姿勢に関する情報、又は前記利用者の視線に関する情報を含む検知情報を取得する取得部と、前記利用者に対して所定の投影方向にある投影対象に画像を投影する投影部と、前記検知情報と、前記投影方向に関する情報とに基づいて、前記投影対象に投影する画像を制御する投影制御部と、を有する。【選択図】図9
Description
本発明は、情報表示システム、情報表示方法、及びプログラムに関する。
利用者が装着するウェアラブル端末を用いて、利用者の前にある物体に関する情報を提供する技術が開発されている。
例えば、利用者の頭部に装着して使用するメガネ型端末等に、撮像画像と位置情報に対応する3次元データと、センサ情報から推定したユーザの視線方向とに基づいて、3次元データから表示データを特定し、表示する技術が知られている(例えば、特許文献1参照)。
特許文献1に開示された技術により、例えば、利用者が着目している対象物に、対象物に関する様々な情報を重畳して表示することができる。
しかし、従来の技術では、ウェアラブル端末は、利用者の視野角の範囲内の対象物に対して、さらに多くの情報を表示する使用方法にとどまっていた。例えば、メガネ型の端末では、情報を表示可能な領域がレンズ面上に限られているため、ユーザの周辺に、ユーザが着目している対象物以外に、より重要度が高い対象物がある場合でも、その情報が利用者に伝わらない場合がある。
本発明の一実施形態は、上記の問題点に鑑みてなされたものであって、利用者が装着するウェアラブル端末を用いて、利用者が注視していない周辺の対象物に関する情報を、利用者に適切に視認させる。
上記の課題を解決するため、本発明の一実施形態に係る情報表示システムは、利用者の姿勢に関する情報、又は前記利用者の視線に関する情報を含む検知情報を取得する取得部と、前記利用者に対して所定の投影方向にある投影対象に画像を投影する投影部と、前記検知情報と、前記投影方向に関する情報とに基づいて、前記投影対象に投影する画像を制御する投影制御部と、を有する。
本発明の一実施形態によれば、利用者が装着するウェアラブル端末を用いて、利用者が注視していない周辺の対象物に関する情報を、利用者に適切に視認させることができる。
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。
<概要>
図1は、一実施形態に係る情報表示システムの概要について説明するための図である。情報表示システム1は、一例として、利用者2が、頭部等に装着する第1のウェアラブル端末100-1と、胸、又は肩等の胴体に装着する第2のウェアラブル端末100-2とを含む。なお、第1のウェアラブル端末100-1と、第2のウェアラブル端末100-2とは、無線通信又は有線通信で相互に通信可能に接続されている。
図1は、一実施形態に係る情報表示システムの概要について説明するための図である。情報表示システム1は、一例として、利用者2が、頭部等に装着する第1のウェアラブル端末100-1と、胸、又は肩等の胴体に装着する第2のウェアラブル端末100-2とを含む。なお、第1のウェアラブル端末100-1と、第2のウェアラブル端末100-2とは、無線通信又は有線通信で相互に通信可能に接続されている。
第1のウェアラブル端末100-1は、例えば、1つ以上の周辺カメラを備え、利用者2の周辺の映像等を取得する機能を有している。また、第1のウェアラブル端末100-1は、IMU(Inertial Measurement Unit)、又はEOG(Electro-Oculogram)センサ等を備え、利用者2の視線を推定するための検知情報を取得する機能を有している。
第2のウェアラブル端末100-2は、例えば、1つ以上のプロジェクタを備え、利用者2に対して所定の投影方向にある投影対象3に対して画像4を投影する機能を有している。また、第2のウェアラブル端末100-2は、利用者2の周辺の3次元点群データを取得するLiDAR(Light Detection And Ranging)等の3次元センサ、及び第1のウェアラブル端末100-1を装着している利用者を撮像する装着者カメラ等を備えている。
情報表示システム1は、例えば、第1のウェアラブル端末100-1、又は第2のウェアラブル端末100-2が検知した、利用者2の姿勢に関する情報、又は利用者2の視線に関する情報を含む検知情報を取得する。また、情報表示システム1は、利用者に対して所定の投影方向にある投影対象3に画像4を投影する際に、取得した検知情報と、投影方向に関する情報とに基づいて、投影対象3に投影する画像4の投影方法を制御する。
具体的な一例として、情報表示システム1は、取得した検知情報から利用者2の視線方向を推定し、利用者の視線方向と、投影方向との差が閾値以上である場合、投影対象3に投影する画像4を強調表示(例えば、点滅表示、振動表示、又は反転表示等)する。
別の一例として、情報表示システム1は、利用者2の視線方向と、投影方向との差がさらに大きい場合、投影対象の位置又は方向を示す画像を、利用者2の視野内の他の投影対象に表示させる。
このように、本実施形態に係る情報表示システム1によれば、利用者2が装着するウェアラブル端末を用いて、利用者2が注視していない周辺の対象物に関する情報を、利用者に適切に視認させる。
<システム構成>
図2、3は、一実施形態に係る情報表示システムの構成例を示す図である。図2(A)の例では、情報表示システム1は、図1で説明した第1のウェアラブル端末100-1と、第2のウェアラブル端末100-2とが、無線通信、又は有線通信で互いに通信可能に接続されている。
図2、3は、一実施形態に係る情報表示システムの構成例を示す図である。図2(A)の例では、情報表示システム1は、図1で説明した第1のウェアラブル端末100-1と、第2のウェアラブル端末100-2とが、無線通信、又は有線通信で互いに通信可能に接続されている。
ただし、これは一例であり、第1のウェアラブル端末100-1と、第2のウェアラブル端末100-2は、図2(A)に示すように、1つのウェアラブル端末100で構成されていてもよい。この場合、ウェアラブル端末100は、第1のウェアラブル端末100-1と同様に、利用者2の頭部等に装着するものであってもよいし、第2のウェアラブル端末100-2と同様に、利用者2の胴体等に装着するものであってもよい。
さらに、情報表示システム1は、図3に示すように、第1のウェアラブル端末100-1、及び第2のウェアラブル端末100-2と、無線通信又は有線通信で通信可能に接続された情報処理装置300を有していてもよい。
情報処理装置300は、例えば、PC(Personal Computer)、タブレット端末、又はスマートフォン等のコンピュータの構成を有する情報端末である。情報処理装置300は、所定のプログラムを実行することにより、第1のウェアラブル端末100-1、及び第2のウェアラブル端末100-2を制御して、本実施形態に係る情報表示方法を制御する。
<ハードウェア構成>
続いて、情報表示システム1に含まれる各装置のハードウェア構成の例について説明する。
続いて、情報表示システム1に含まれる各装置のハードウェア構成の例について説明する。
(第1のウェアラブル端末)
図4は、一実施形態に係る第1のウェアラブル端末のハードウェア構成の例を示す図である。第1のウェアラブル端末200-1は、例えば、CPU(Central Processing Unit)401、メモリ402、ストレージデバイス403、通信I/F(Interface)404、1つ以上の周辺カメラ405、IMU406、EOGセンサ407、音声回路408、スピーカ409、マイク410、及びバス411等を有する。
図4は、一実施形態に係る第1のウェアラブル端末のハードウェア構成の例を示す図である。第1のウェアラブル端末200-1は、例えば、CPU(Central Processing Unit)401、メモリ402、ストレージデバイス403、通信I/F(Interface)404、1つ以上の周辺カメラ405、IMU406、EOGセンサ407、音声回路408、スピーカ409、マイク410、及びバス411等を有する。
CPU401は、例えば、ストレージデバイス403等の記憶媒体に格納されたプログラムやデータをメモリ302上に読み出し、処理を実行することで、第1のウェアラブル端末100-1の各機能を実現する演算装置(プロセッサ)である。メモリ402には、例えば、CPU401のワークエリア等として用いられるRAM(Random Access Memory)、及びCPU401の起動用のプログラム等を記憶するROM(Read Only Memory)等が含まれる。ストレージデバイス403は、OS(Operating System)、アプリケーション、及び各種のデータ等を記憶する大容量の不揮発性の記憶装置であり、例えば、SSD(Solid State Drive)、又はHDD等によって実現される。
通信I/F304は、第2のウェアラブル端末100-2と通信するための、例えば、近距離無線通信、無線LAN(Local Area Network)、又は有線通信等の通信インタフェースである。また、通信I/F304は、例えば、インターネット、及びLAN等の通信ネットワークに接続するための、LAN、又はWAN(Wide Area Network)等の通信インタフェースを含む。
1つ以上の周辺カメラ405は、利用者2の周辺の画像(映像)を撮影する撮影装置である。周辺カメラ405は、1台で全方位の画像(映像)を撮影可能な全天球カメラであってもよいし、複数のカメラによって構成されるものであってもよい。情報表示システム1は、例えば、1つ以上の周辺カメラ405で撮影した画像を用いて、自己位置推定と、環境地図作成を行うVisual SLAM(Simultaneous Localization and Mapping)を行うことができる。
IMU406は、例えば、利用者2の姿勢情報等を取得する慣性計測デバイスである。例えば、IMU406は、3軸のジャイロセンサと、3方向の加速度センサとにより、3次元の角速度と加速度を検知する。EOGセンサ407は、利用者2の視線を推定するための眼電位センサである。第1のウェアラブル端末100-1は、IMU406とEOGセンサ407とのうち、少なくとも一方を有していればよい。
音声回路408は、CPU401からの制御に従って、音声信号をスピーカ409に出力し、マイク410から入力された音声信号を増幅する。スピーカ409は、音声回路408から入力された音声信号を音声に変換して出力する。マイク410は、周辺の音声を取得し、音声信号に変換して音声回路408に出力する。なお、第1のウェアラブル端末200-1は、音声回路408、スピーカ409、及びマイク410の一部、又は全部を有していなくてもよい。バス411は、上記の各構成要素に共通に接続され、例えば、アドレス信号、データ信号、及び各種の制御信号等を伝送する。
(第2のウェアラブル端末)
図5は、一実施形態に係る第2のウェアラブル端末のハードウェア構成の例を示す図である。第2のウェアラブル端末200-2は、例えば、CPU501、メモリ502、ストレージデバイス503、通信I/F504、LiDAR505、装着者カメラ506、1つ以上のプロジェクタ507、及びバス508等を有する。このうち、CPU501、メモリ502、ストレージデバイス503、通信I/F504、及びバス508は、図4で説明したCPU401、メモリ402、ストレージデバイス403、通信I/F404、及びバス411と同様なので、ここでは説明を省略する。
図5は、一実施形態に係る第2のウェアラブル端末のハードウェア構成の例を示す図である。第2のウェアラブル端末200-2は、例えば、CPU501、メモリ502、ストレージデバイス503、通信I/F504、LiDAR505、装着者カメラ506、1つ以上のプロジェクタ507、及びバス508等を有する。このうち、CPU501、メモリ502、ストレージデバイス503、通信I/F504、及びバス508は、図4で説明したCPU401、メモリ402、ストレージデバイス403、通信I/F404、及びバス411と同様なので、ここでは説明を省略する。
LiDAR505は、対象物にレーザー光等の光を照射し、その反射光を光センサ等で検知することにより、対象物までの距離を測定する測距デバイスである。LiDAR505は、主に、投影対象の投影面までの距離、傾き、及び形状等の情報を取得するために用いられる。ただし、これに限られず、情報表示システム1は、LiDAR505を、自己位置推定と、環境地図作成を行うSLAMに用いてもよい。
装着者カメラ506は、利用者2を撮影するカメラである。情報表示システム1は、装着者カメラ506が撮影した利用者2の画像を、例えば、利用者2の視線方向を推定ために用いることができる。また、情報表示システム1は、装着者カメラ506が撮影した利用者2の画像を、利用者2を特定するために用いてもよい。
1つ以上のプロジェクタ507は、投影対象3に画像4等を投影する画像投影デバイスである。情報表示システム1は、例えば、広い範囲に画像4等を投影したい場合、複数の投影対象3に画像4等を投影したい場合、又は明るい場所にある投影対象3に画像4等を投影した場合等に、複数のプロジェクタ507を有していてもよい。ここでは、プロジェクタ507の数が1つであるものとして、以下の説明を行う。
(ウェアラブル端末)
図6は、一実施形態に係るウェアラブル端末のハードウェア構成の例を示す図である。ウェアラブル端末100は、例えば、CPU601、メモリ602、ストレージデバイス603、通信I/F604、1つ以上の周辺カメラ605、IMU606、EOGセンサ607、音声回路608、スピーカ609、マイク610、及びバス619等を有する。なお、上記の各構成要素は、図4で説明したCPU401、メモリ402、ストレージデバイス403、通信I/F404、1つ以上の周辺カメラ405、IMU406、EOGセンサ407、音声回路408、スピーカ409、マイク410、及びバス411と同様なので、ここでは説明を省略する。
図6は、一実施形態に係るウェアラブル端末のハードウェア構成の例を示す図である。ウェアラブル端末100は、例えば、CPU601、メモリ602、ストレージデバイス603、通信I/F604、1つ以上の周辺カメラ605、IMU606、EOGセンサ607、音声回路608、スピーカ609、マイク610、及びバス619等を有する。なお、上記の各構成要素は、図4で説明したCPU401、メモリ402、ストレージデバイス403、通信I/F404、1つ以上の周辺カメラ405、IMU406、EOGセンサ407、音声回路408、スピーカ409、マイク410、及びバス411と同様なので、ここでは説明を省略する。
また、ウェアラブル端末100は、例えば、LiDAR611、装着者カメラ612、及び1つ以上のプロジェクタを有する。なお、上記の各構成要素は、図5で説明したLiDAR505、装着者カメラ506、及び1つ以上のプロジェクタ507と同様なので、ここでは説明を省略する。
図6に示すように、ウェアラブル端末100は、第1のウェアラブル端末100-1と、第2のウェアラブル端末100-2とを一体化した構成を有している。
(情報処理装置)
情報処理装置300は、例えば、図7に示すようなコンピュータ700のハードウェア構成を有している。或いは、情報処理装置300は、複数のコンピュータ700によって構成される。
情報処理装置300は、例えば、図7に示すようなコンピュータ700のハードウェア構成を有している。或いは、情報処理装置300は、複数のコンピュータ700によって構成される。
図7は、一実施形態に係るコンピュータのハードウェア構成の例を示す図である。コンピュータ700は、例えば、図7に示されるように、CPU701、ROM(Read Only Memory)702、RAM703、HD(Hard Disk)704、HDDコントローラ705、ディスプレイ706、外部機器接続I/F707、ネットワークI/F708、キーボード709、ポインティングデバイス710、DVD-RW(Digital Versatile Disk Rewritable)ドライブ712、メディアI/F714、及びバスライン715等を備えている。
これらのうち、CPU701は、コンピュータ700全体の動作を制御する。ROM702は、例えば、IPL(Initial Program Loader)等のコンピュータ700の起動に用いられるプログラムを記憶する。RAM703は、例えば、CPU701のワークエリア等として使用される。HD704は、例えば、OS(Operating System)、アプリケーション、デバイスドライバ等のプログラムや、各種データを記憶する。HDDコントローラ705は、例えば、CPU701の制御に従ってHD704に対する各種データの読み出し又は書き込みを制御する。
ディスプレイ706は、例えば、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種情報を表示する。なお、ディスプレイ706は、コンピュータ700の外部に設けられていても良い。外部機器接続I/F707は、様々な外部機器を、コンピュータ700に接続するための、例えば、USB(Universal Serial Bus)等のインタフェースである。ネットワークI/F708は、例えば、通信ネットワーク等を利用して、他の装置と通信するためのインタフェースである。
キーボード709は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス710は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行なう入力手段の一種である。なお、キーボード709、及びポインティングデバイス710は、コンピュータ700の外部に設けられていても良い。DVD-RWドライブ712は、着脱可能な記憶媒体の一例としてのDVD-RW711に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RW711は、DVD-RWに限らず、他の記憶媒体であっても良い。
メディアI/F714は、フラッシュメモリ等のメディア713に対するデータの読み出し又は書き込み(記憶)を制御する。バスライン715は、上記の各構成要素を電気的に接続するためのアドレスバス、データバス及び各種の制御信号等を含む。
なお、図7に示すコンピュータ700のハードウェア構成は一例である。コンピュータ700は、例えば、CPU701、ROM702、RAM703、ネットワークI/F708、及びバスライン216を有していれば、他は任意の構成であって良い。
<機能構成>
図8~図12は、一実施形態に係る情報表示システムの機能構成の例を示す図である。
図8~図12は、一実施形態に係る情報表示システムの機能構成の例を示す図である。
図8は、一実施形態に係る情報表示システム1の機能構成の一例を示している。
(第1のウェアラブル端末の機能構成)
第1のウェアラブル端末100-1は、例えば、CPU401で所定のプログラムを実行することにより、通信部801、取得部802、投影制御部803、記憶部804、及び情報取得部805等の機能構成を実現している。なお、上記の各機能構成のうち、少なくとも一部は、ハードウェアによって実現されるものであってもよい。
第1のウェアラブル端末100-1は、例えば、CPU401で所定のプログラムを実行することにより、通信部801、取得部802、投影制御部803、記憶部804、及び情報取得部805等の機能構成を実現している。なお、上記の各機能構成のうち、少なくとも一部は、ハードウェアによって実現されるものであってもよい。
通信部801は、例えば、通信I/F404を用いて、第2のウェアラブル端末100-2と通信する通信処理を実行する。好ましくは、通信部801は、通信I/F404を用いて、通信ネットワークNに接続し、外部サーバ810等の外部機器と通信することもできる。
取得部802は、利用者2の姿勢に関する情報(例えば、IMU406から出力されるデータ)、又は利用者2の視線に関する情報(例えば、EOGセンサ407で検知したデータ)等を含む検知情報を取得する取得処理を実行する。なお、取得部802は、利用者2の視線に関する情報を、第2のウェアラブル端末100-2から取得してもよい。
投影制御部803は、取得部802が取得した検知情報と、利用者2に対する投影対象3の方向である投影方向に関する情報とに基づいて、投影対象3に投影する画像4を制御する投影制御処理を実行する。なお、投影制御部803の具体的な機能構成、及び処理内容については後述する。
記憶部804は、例えば、CPU401が実行するプログラム、ストレージデバイス403、及びメモリ402等によって実現され、投影対象3を特定するためのデータ、及び後述する複数の閾値等を記憶する。なお、投影対象3を特定するためのデータは、例えば、予め記憶した投影対象3の3次元CAD(Computer Aided Design)データ等であってもよいし、外部サーバ810から取得したデジタルツイン811の3次元データ等であってもよい。ここで、デジタルツイン811は、物理空間から取得した3次元情報に基づいて、デジタル空間に物理空間のコピー(双子)を再現する技術である。例えばデジタルツイン811から取得した3次元データには、利用者2の周辺にある様々な物体の3次元データ、投影対象3の位置に関する情報、及び投影対象に投影する画像4等の様々な情報又はデータが含まれる。
また、投影対象3を特定するためのデータは、例えば、周辺カメラ405で撮影した画像に含まれる物体が、投影対象3であるか否かを識別するように予め学習した機械学習モデル等であってもよい。
情報取得部805は、必要に応じて、記憶部804に記憶するデータ(例えば、デジタルツイン811の3次元データ、又は学習済の機械学習モデル等)を外部サーバ810等から取得し、記憶部804に記憶する情報取得処理を実行する。
(第2のウェアラブル端末の機能構成)
第2のウェアラブル端末100-2は、例えば、CPU501で所定のプログラムを実行することにより、通信部806、及び投影部807等を実現している。なお、上記の各機能構成のうち、少なくとも一部は、ハードウェアによって実現されるものであってもよい。
第2のウェアラブル端末100-2は、例えば、CPU501で所定のプログラムを実行することにより、通信部806、及び投影部807等を実現している。なお、上記の各機能構成のうち、少なくとも一部は、ハードウェアによって実現されるものであってもよい。
通信部806は、例えば、通信I/F504を用いて、第1のウェアラブル端末100-1と通信する通信処理を実行する。通信部806は、通信I/F404を用いて、通信ネットワークNに接続し、外部サーバ810等の外部機器と通信する機能を有していてもよい。
投影部807は、投影制御部803からの指示に従って、プロジェクタ507を用いて、投影対象3に画像4等を投影する投影処理を実行する。
なお、図8に示した情報表示システム1の機能構成は一例である。例えば、図8の第1のウェアラブル端末100-1が有する各機能構成、及び第2のウェアラブル端末100-2が有する各機能構成は、情報表示システム1に含まれていればよく、いずれの装置に設けられていても良い。
図9は、一実施形態に係る情報表示システム1の機能構成の別の一例を示している。図9に示すように、取得部802、投影制御部803、記憶部804、及び情報取得部805等の機能構成は、第2のウェアラブル端末100-2が有していてもよい。この場合、取得部802は、前述した利用者2の姿勢に関する情報、又は利用者2の視線に関する情報等を含む検知情報を、第1のウェアラブル端末100-1から取得する。
この場合、第1のウェアラブル端末100は、検知部901を有する。検知部901は、例えば、CPU401が実行するプログラムによって実現され、IMU406又はEOGセンサ407等から検知情報を取得し、取得した検知情報を、通信部801を介して第2のウェアラブル端末100-2に送信する。なお、上記以外の各機能構成は、図8で説明した各機能構成と同様でよい。
図10は、一実施形態に係る情報表示システム1の機能構成の別の一例を示している。図10に示すように、投影制御部803、記憶部804、及び情報取得部805の機能は、第1のウェアラブル端末100-1と、第2のウェアラブル端末100-2に分散して設けられていても良い。
図10の例では、第1のウェアラブル端末100-1が備える投影制御部803aは、第2のウェアラブル端末100-2が備える投影制御部803bと協働して、図8で説明した投影制御部803の機能を実現する。また、第1のウェアラブル端末100-1が備える記憶部804aは、図8で説明した記憶部804が記憶する情報のうち、投影制御部803aが利用する情報を記憶し、情報取得部805aは、必要に応じて記憶部804aに記憶する情報を取得する。
同様に、第2のウェアラブル端末100-2が備える投影制御部803bは、第1のウェアラブル端末100-1が備える投影制御部803aと協働して、図8で説明した投影制御部803の機能を実現する。また、第2のウェアラブル端末100-2が備える記憶部804bは、図8で説明した記憶部804が記憶する情報のうち、投影制御部803bが利用する情報を記憶し、情報取得部805bは、必要に応じて記憶部804bに記憶する情報を取得する。
図11は、一実施形態に係る情報表示システム1の機能構成の別の一例を示している。図11に示すように、情報表示システム1が備える各機能構成は、一体化されたウェアラブル端末100によって実現されるものであってもよい。図11の例では、ウェアラブル端末100は、CPU601で所定のプログラムを実行することにより、通信部801、取得部802、投影制御部803、記憶部804、情報取得部805、及び投影部807等を実現している。なお、上記の各機能構成は、図8で説明した、通信部801、取得部802、投影制御部803、記憶部804、情報取得部805、及び投影部807と同様なので、ここでは説明を省略する。
図12は、一実施形態に係る情報表示システム1の機能構成の別の一例を示している。図12に示すように、情報表示システム1が有する各機能構成のうち、取得部802、投影制御部803、記憶部804、及び情報取得部805等は、情報処理装置300が有していてもよい。
図12の例では、情報処理装置300は、CPU701で所定のプログラムを実行することにより、通信部1201、取得部802、投影制御部803、記憶部804、及び情報取得部805等を実現している。なお、取得部802、投影制御部803、記憶部804、及び情報取得部805は、図8で説明した、取得部802、投影制御部803、記憶部804、及び情報取得部805と同様なので、ここでは説明を省略する。
通信部1201は、例えば、ネットワークI/F708を用いて、第1のウェアラブル端末100-1、及び第2のウェアラブル端末100-2と通信する通信処理を実行する。また、通信部1201は、情報処理装置300を通信ネットワークNに接続し、外部サーバ810等とも通信可能である。
図12の例では、第1のウェアラブル端末100-1は、一例として、図9に示すような、第1のウェアラブル端末100-1の機能構成を有する。別の一例として、第1のウェアラブル端末100-1は、図10に示すような、第1のウェアラブル端末100-1の機能構成を有していてもよい。
また、第2のウェアラブル端末100-2は、一例として、図8に示すような、第2のウェアラブル端末100-2の機能構成を有する。別の一例として、第2のウェアラブル端末100-2は、図10に示すような、第2のウェアラブル端末100-2の機能構成を有していてもよい。
第1のウェアラブル端末100-1が、図10に示すような、第1のウェアラブル端末100-1の機能構成を有している場合、情報処理装置300の投影制御部803、記憶部804、及び情報取得部805は、第1のウェアラブル端末100-1と協働して、図8で説明した機能を実現する。同様に、第2のウェアラブル端末100-2が、図10に示すような、第2のウェアラブル端末100-2の機能構成を有している場合、情報処理装置300の投影制御部803、記憶部804、及び情報取得部805は、第2のウェアラブル端末100-2と協働して、図8で説明した機能を実現する。
また、第1のウェアラブル端末100-1及び第2のウェアラブル端末100-2が、図10に示すような機能構成を有している場合、情報処理装置300は、第1のウェアラブル端末100-1及び第2のウェアラブル端末100-2と協働して各機能を実現する。
このように、図8で説明した、第1のウェアラブル端末100-1及び第2のウェアラブル端末100-2が有する各機能構成は、情報表示システム1が有していればよく、いずれの装置が有していてもよい。
(投影制御部の機能構成)
図13は、一実施形態に係る投影制御部の機能構成例を示す図である。投影制御部803は、例えば、図13に示すように、視線推定部1301、視野領域推定部1302、投影対象判定部1303、投影方法決定部1304、及び投影指示部1305等を有する。
図13は、一実施形態に係る投影制御部の機能構成例を示す図である。投影制御部803は、例えば、図13に示すように、視線推定部1301、視野領域推定部1302、投影対象判定部1303、投影方法決定部1304、及び投影指示部1305等を有する。
視線推定部1301は、取得部802が取得した検知情報に基づいて、利用者2の視線方向を推定する視線推定処理を実行する。例えば、視線推定部1301は、視線方向を取得するEOGセンサ407から取得した検知情報から、利用者2の視線方向を取得してもよい。また、視線推定部1301、IMU406から取得した検知情報から、顔がどちらを向いているかを計測して、その向きから利用者2の視線方向を推定してもよい。さらに、視線推定部1301は、装着者カメラ506が撮影した利用者2の画像を解析して、利用者2の視線方向を推定するもの等であってもよい。
視野領域推定部1302は、視線推定部1301が推定した利用者2の視線方向を中心として、その周囲に広がる利用者2の視野領域を推定する。
投影対象判定部1303は、一例として、周辺カメラ605で撮影した利用者2の周辺の画像と、記憶部804に予め記憶した投影対象3の情報(例えば、3次元のCADデータ)に基づいて、利用者2の周辺にある投影対象3を判定(特定)する。
別の一例として、投影対象判定部1303は、周辺カメラ605で撮影した画像から、VSALMにより、利用者2の周辺の3次元情報を取得し、デジタルツイン811から取得した3次元情報と比較することにより、投影対象を判定してもよい。なお、デジタルツイン811から取得する3次元データには、少なくとも、投影対象3の位置を示す情報と、投影対象3に投影する画像4等の情報が含まれる。
投影方法決定部1304は、視線推定部1301が推定した利用者2の視線方向と、利用者に対する投影対象3の方向(投影方向)との差に基づいて、投影対象3に投影する画像4等の投影方法(内容、位置、強調表示等)を変更する。
投影指示部1305は、投影方法決定部1304が決定した投影方法で、投影対象3等への画像4の投影を指示する投影指示処理を実行する。
<処理の流れ>
続いて、本実施形態に係る情報表示方法の処理の流れについて説明する。
続いて、本実施形態に係る情報表示方法の処理の流れについて説明する。
(情報表示システムの処理)
図14は、一実施形態に係る情報表示システムの処理例を示すフローチャートである。この処理は、例えば、図8~図13のいずれかの機能構成を有する情報表示システム1が実行する処理の例を示している。
図14は、一実施形態に係る情報表示システムの処理例を示すフローチャートである。この処理は、例えば、図8~図13のいずれかの機能構成を有する情報表示システム1が実行する処理の例を示している。
ステップS1401において、取得部802は、利用者2の姿勢に関する情報、又は利用者2の視線に関する情報等を含む検知情報を取得する。ここで、利用者2の姿勢に関する情報には、例えば、IMU406で検出した3次元の角速度と加速度等のデータが含まれる。また、利用者の視線に関する情報には、例えば、EOGセンサ407で検知した利用者の視線方向を示すデータ、又は装着者カメラ506等で撮影した利用者2の撮影画像等が含まれる。
ステップS1402において、投影制御部803は、取得部802が取得した検知情報に基づいて、利用者2の視線方向を推定する。例えば、投影制御部803の視線推定部1301は、EOGセンサ407から取得した検知情報から、利用者2の視線方向を取得する。
ステップS1403において、投影制御部803は、利用者の視線領域を推定する。図15は、一実施形態に係る視野領域について説明するための図である。人の視野は、例えば、図15に示すように、人の視線方向1511を中心として、その周囲に視野全体が広がっている。この視野は、大きく3つの領域に分けられる。
1つ目の領域は、有効視野1512であり、その範囲は、例えば、図15(B)、(C)に示すように、視線方向1511に対して、垂直方向に±10度、水平方向に±10度の領域である。2つめの領域は、安定注視野1513であり、その範囲は、例えば、図15(B)、(C)に示すように、視線方向1511に対して、垂直方向に±10度以上35度未満、水平方向に±10度以上55度未満の領域である。3つ目の領域は、周辺視野1514であり、その範囲は、例えば、図15(B)、(C)に示すように、視線方向1511に対して、垂直方向に±35度以上60度以下、水平方向に55度以上110度未満の範囲である。
有効視野1512は、人が視線を向けて注視している方向に最も近い領域で、この領域内に表示される情報には気付きやすい。ここで、注視とは、例えば、一定時間以上視線が向いていて、空間内のある点もしくは狭い領域をじっと見つめている状態を指す。
有効視野1512から安定注視野1513へ、また、安定注視野1513から周辺視野1514へと、視線から離れるほど、人は意識的に見ることが難しく、これらの領域内に表示される情報には気づき難くなる。
このように、人の視野は、領域ごとに情報を処理できる能力が異なるため、人の視野を、視線からの方向に応じて複数の領域に分けて、領域ごとに表示方法を変えることにより、視線方向から大きく離れた情報を、人に気付かせることができるようになる。ここで、人の視野を分割する領域の数はいくつでもよく、距離に応じて投影方法を徐々に変化させてもよい。
ここでは、一例として、投影制御部803の視野領域推定部1302が、ステップS1403において、利用者2の有効視野1512、安定注視野1513、及び周辺視野1514の3つの領域を推定するものとして、以下の説明を行う。
ステップS1404において、投影制御部803は、投影対象3の位置を判定する。例えば、投影制御部803の投影対象判定部1303は、周辺カメラで撮影した利用者2の周辺の画像から、記憶部804に予め記憶した投影対象3の3次元データを用いて、公知のテンプレートマッチング技術等により、投影対象3の位置を判定してもよい。
或いは、投影対象判定部1303は、周辺カメラで撮影した撮影画像、又はLiDARで取得した3次元データ等からSLAMにより自己位置推定と、環境地図作成を行い、デジタルツイン811のデータと対応付けて、投影対象3の位置を判定してもよい。
ステップS1405において、投影制御部803は、画像の投影方法を決定する。例えば、投影制御部803の投影方法決定部1304は、利用者2の視線方向1511と、視線方向1511に対する投影対象の方向との差に基づいて、投影対象に投影する画像の投影方法を変更する。なお、投影方法決定部1304による投影方法の決定処理については、複数の実施形態を例示して後述する。
ステップS1406において、投影制御部803は、決定した投影方法で画像を投影する。例えば、投影制御部803の投影指示部1305は、周辺カメラが撮影した画像、又はLiDARが取得した3次元データによるSLAMにより、対象物がある投影方向を特定し、特定した投影方向に向けて画像を投影するように、投影部807に指示する。
<投影方法の決定処理>
[第1の実施形態]
図16は、第1の実施形態に係る投影方法の決定処理の例を示すフローチャートである。この処理は、例えば、図14のステップS1405において、投影制御部803の投影方法決定部1304が実行する処理の一例を示している。
[第1の実施形態]
図16は、第1の実施形態に係る投影方法の決定処理の例を示すフローチャートである。この処理は、例えば、図14のステップS1405において、投影制御部803の投影方法決定部1304が実行する処理の一例を示している。
ステップS1601において、投影方法決定部1304は、利用者2の視線方向と、対象物がある投影方向との差Xを算出する。
ステップS1602において、投影方法決定部1304は、算出したXが、第1の閾値以下であるか否かを判断する。ここでは、説明用の一例として、Xが第1の閾値以下となる範囲が、図15で説明した有効視野1512に相当する範囲であるものとして、以下の説明を行う。
Xが第1の閾値以下である場合、投影方法決定部1304は、処理をステップS1603に移行させる。一方、Xが第1の閾値以下でない場合、投影方法決定部1304は、処理をステップS1604に移行させる。
ステップS1603に移行すると、投影方法決定部1304は、対象物に画像を通常の表示方法で投影することを決定する。ここで、通常の表示方法とは、後述する強調表示を行わずに、画像をそのまま表示することを示す。
図17は、第1の実施形態に係る通常の表示方法の一例のイメージを示す図である。図17に示すように、投影対象1700が、有効視野1512内にある場合(Xが第1の閾値以下である場合)、情報表示システム1は、投影対象1700に画像1701をそのまま投影する。図17の例では、投影対象1700に投影する画像1701が「要確認」という文字列を表す画像である場合の例を示している。
ステップS1602からステップS1604に移行すると、投影方法決定部1304は、算出したXが、第2の閾値以下であるか否かを判断する。ここでは、説明用の一例として、Xが第2の閾値以下となる範囲が、図15で説明した安定注視野1513に相当する範囲であるものとして、以下の説明を行う。
Xが第2の閾値以下である場合、投影方法決定部1304は、処理をステップS1605に移行させる。一方、Xが第1の閾値以下でない場合、投影方法決定部1304は、処理をステップS1606に移行させる。
ステップS1605に移行すると、投影方法決定部1304は、対象物に画像を第1の強調表示で投影することを決定する。ここで、第1の強調表示とは、例えば、投影する画像が利用者2の目を引くように、例えば、点滅表示、拡大表示、判定表示、又は移動表示等の強調表示を1段階行うことを示す。
図18は、第1の実施形態に係る第1の強調表示の一例のイメージを示す図である。図18に示すように、投影対象1700が、安定注視野1513内にある場合(Xが第1の閾値より大きく、第2の閾値以下である場合)、情報表示システム1は、投影対象1700に点滅表示(第1の強調表示の一例)する画像1801を投影してもよい。これにより、情報表示システム1は、安定注視野1513内に投影対象1700がある場合、利用者2の視線が投影対象1700に向くように、画像1801を強調して投影することができる。
ステップS1604からステップS1606に移行すると、投影方法決定部1304は、対象物に画像を第2の強調表示で投影することを決定する。ここで、第2の強調表示とは、例えば、投影する画像が利用者2の目をさらに引くように、例えば、点滅表示、拡大表示、判定表示、又は移動表示等の強調表示を2段階行うことを示す。ただし、これに限られず、第2の強調表示は、第1の強調表示より目立つ、又は目を引く表示方法であればよい。
図19は、第1の実施形態に係る第2の強調表示の一例のイメージを示す図である。図19に示すように、投影対象1700が、安定注視野1513外にある場合(Xが第2の閾値より大きい場合)、情報表示システム1は、投影対象1700に点滅表示、及び移動表示(第2の強調表示の一例)する画像1901を投影してもよい。これにより、情報表示システム1は、安定注視野1513外に投影対象1700がある場合、利用者2の視線が、より投影対象1700に向くように、画像1801をさらに強調して投影することができる。
[第2の実施形態]
図20は、第2の実施形態に係る投影方法の決定処理の例を示すフローチャートである。この処理は、例えば、図14のステップS1405において、投影制御部803の投影方法決定部1304が実行する処理の別の一例を示している。なお、図20に示す処理のうち、ステップS1601~S1606の処理は、図6で説明した第1の実施形態に係る投影方法の決定処理と同様なので、ここでは説明を省略する。
図20は、第2の実施形態に係る投影方法の決定処理の例を示すフローチャートである。この処理は、例えば、図14のステップS1405において、投影制御部803の投影方法決定部1304が実行する処理の別の一例を示している。なお、図20に示す処理のうち、ステップS1601~S1606の処理は、図6で説明した第1の実施形態に係る投影方法の決定処理と同様なので、ここでは説明を省略する。
ステップS1606において、投影方法決定部1304が、対象物に画像を第2の強調表示で投影することを決定した場合、ステップS2001において、投影方法決定部1304は、Xが第3の閾値以下であるか否かを判断する。
Xが第3の閾値以下である場合、投影方法決定部1304は、図20の処理を終了する。一方、Xが第3の閾値以下でない場合、投影方法決定部1304は、処理をステップS2002に移行させる。
ステップS2002に移行すると、投影方法決定部1304は、投影対象の位置又は方向を示す画像を、Xが第3の閾値以下の他の対象物に投影すると決定する。
図21は、第2の実施形態に係る表示方法の一例のイメージを示す図である。図21の例では、投影対象1700が、利用者2の周辺視野1514(第3の閾値の一例)の外にある。このような場合、投影方法決定部1304は、利用者2の周辺視野1514内にある他の投影対象2100に、投影対象1700の位置又は方向を示す画像を投影することを決定する。図21の例では、他の投影対象2100に、投影対象1700の方向を示す矢印(表示要素の一例)2101を含む画像を投影している。
好ましくは、情報表示システム1は、投影対象1700が、利用者2の周辺視野514の外にある場合でも、投影対象1700に、点滅表示、及び移動表示(第2の強調表示)する画像1901を投影する。これにより、利用者2が視線を移動させたとき等に、投影対象1700及び、画像1901を容易に視認できる。なお、第3の閾値は、周辺視野1514に限られず、例えば、設定値等によって変更可能であってよい。
[第3の実施形態]
第3の実施形態では、情報表示システム1が、利用者2の視線速度情報を取得し、取得した視線速度情報に基づいて、閾値(例えば、第1閾値、第2の閾値、又は第3の閾値等)を変更する場合の処理の例について説明する。
第3の実施形態では、情報表示システム1が、利用者2の視線速度情報を取得し、取得した視線速度情報に基づいて、閾値(例えば、第1閾値、第2の閾値、又は第3の閾値等)を変更する場合の処理の例について説明する。
図22は、第3の実施形態に係る情報表示システムの処理の例を示すフローチャートである。なお、図22に示す処理のうち、ステップS1401、S1403~S1406の処理は、図4で説明した一実施形態に係る情報表示システムの処理と同様なので、ここでは説明を省略する。
ステップS2201において、投影制御部803は、取得部802が取得した検知情報に基づいて、利用者2の視線方向、及び視線速度を推定する。例えば、投影制御部803は、EOGセンサ407から取得した検知情報から、利用者2の視線方向、及び視線速度を取得する。
ステップS2202において、投影制御部803は、推定した視線速度に基づいて閾値を変更する。例えば、投影制御部803は、所定の時間内の視線速度が、所定値以下である場合、利用者2が何かを注視しており、視野が狭まっていると判断し、第1の閾値、第2の閾値、及び第3の閾値を下げる。
図23は、第3の実施形態に係る表示方法の一例のイメージを示す図である。この図は、図19に示すように、安定注視野1513を第2の閾値とし、周辺視野1514を第3の閾値とした状態から、第2の閾値2301、及び第3の閾値2302を下げた(値を小さくした)場合のイメージを示している。図23の例では、第3の閾値を下げることにより、利用者2の視線方向と、投影方向との差が第3の閾値以上となったため、情報表示システム1は、投影対象1700の位置又は方向を示す画像2303を投影している。
このように、情報表示システム1は、利用者2の視線速度に基づいて、第1の閾値、第2の閾値、及び第3の閾値のうち、1つ以上の閾値を変更することにより、利用者2が注視していない周辺の対象物に関する情報を、利用者により適切に視認させることができる。
[第4の実施形態]
第4の実施形態では、情報表示システム1が、例えば、外部サーバ810等から取得したデジタルツイン811のデータ等の3次元データに基づいて、投影対象に画像を投影する場合の処理の例について説明する。
第4の実施形態では、情報表示システム1が、例えば、外部サーバ810等から取得したデジタルツイン811のデータ等の3次元データに基づいて、投影対象に画像を投影する場合の処理の例について説明する。
図24は、第4の実施形態に係る投影対象の判定処理の例を示すフローチャートである。この処理は、例えば、図14のステップS1404において、投影制御部803が実行する投影対象の判定処理の一例を示している。
ステップS2401において、投影制御部803は、投影対象の位置に関する情報と、投影対象に投影する情報とを含む3次元データを取得する。例えば、投影制御部803は、情報取得部805が、外部サーバ810から取得して記憶部804に記憶したデジタルツイン811の3次元データを、記憶部804から取得する。
ステップS2402において、投影制御部803は、周辺カメラで利用者2の周辺を撮影した撮影画像、又はLiDARから、利用者2の周辺の3次元点群データを取得する。例えば、投影制御部803は、撮影画像に対してVSLAMを実行することにより、利用者2の周辺の3次元点群データを取得する。
ステップS2403において、投影制御部803は、デジタルツイン811の3次元データと、利用者2の周辺の3次元点群データとから、利用者の位置情報を推定(取得)する。
ステップS2404において、投影制御部803は、デジタルツイン811の3次元データから取得した投影対象と位置と、利用者の位置とに基づいて、投影方向を決定する。
図24の処理により、情報表示システム1は、例えば、図25に示すように、デジタルツイン811に含まれる投影対象2501の3次元データに基づいて、実際の投影対象2501に、画像2503を投影することができる。
また、この方法によれば、図25に示すように、同じような形状をした複数の投影対象2501、2502に画像を投影する場合でも、複数の投影対象2501、2502の位置に関する情報に基づいて、より正確に画像2503、2504を投影することができる。
好適な一例として、デジタルツイン811の3次元データには、複数の投影対象2501、2502の優先度を示す情報が含まれる。また、投影制御部803は、複数の投影対象2501、2502の優先度に基づいて、複数の投影対象2501、2502に画像2503、2504を投影する投影方法を変更する。
図25の例では、情報表示システム1は、より優先度が高い投影対象2501に、点滅表示で画像2503を投影している。また、情報表示システム1は、より優先度が低い投影対象2502に、通常表示で画像2504を表示している。これにより、利用者2は、複数の投影対象2501、1502に投影された画像2503、2504の重要度を容易に把握できるようになる。
また、投影制御部803は、複数の投影対象2501、2502が近くにあり、両方に画像2503、2504を投影することができない場合、より優先度が高い投影対象2501にのみ、画像2503を投影してもよい。
以上、本発明の各実施形態によれば、利用者2が装着するウェアラブル端末を用いて、利用者2が注視していない周辺の対象物に関する情報を、利用者2に適切に視認させることができる。
(補足)
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
実施例に記載された装置群は本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。本実施形態によって本発明が限定されるものではなく、本実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、及び、いわゆる均等の範囲のものが含まれる。さらに、本実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
1 情報表示システム
2 利用者
3、1700、2501、2502 投影対象
100 ウェアラブル端末
100-1 第1のウェアラブル端末
100-2 第2のウェアラブル端末
300 情報処理装置
802 取得部
803 投影制御部
804 記憶部
807 投影部
2 利用者
3、1700、2501、2502 投影対象
100 ウェアラブル端末
100-1 第1のウェアラブル端末
100-2 第2のウェアラブル端末
300 情報処理装置
802 取得部
803 投影制御部
804 記憶部
807 投影部
Claims (12)
- 利用者の姿勢に関する情報、又は前記利用者の視線に関する情報を含む検知情報を取得する取得部と、
前記利用者に対して所定の投影方向にある投影対象に画像を投影する投影部と、
前記検知情報と、前記投影方向に関する情報とに基づいて、前記投影対象に投影する画像を制御する投影制御部と、
を有する、情報表示システム。 - 前記投影制御部は、前記検知情報から得られる前記利用者の視線方向と、前記投影方向との差に基づいて、前記投影対象に投影する前記画像の投影方法を変更する、請求項1に記載の情報表示システム。
- 前記投影制御部は、前記視線方向と前記投影方向との差が所定の閾値より大きい場合、他の投影対象に他の画像を投影するように前記投影部を制御し、
前記視線方向と前記他の投影対象の方向との差は、前記所定の閾値より小さい、
請求項2に記載の情報表示システム。 - 前記他の画像は、前記投影対象の位置又は方向を示す表示要素を含む、請求項3に記載の情報表示システム。
- 前記取得部は、前記視線方向が変化する速度に関する視線速度情報を取得し、
前記投影制御部は、前記視線速度情報に基づいて前記投影対象に投影する前記画像の投影方法を変更する、
請求項2乃至4のいずれか一項に記載の情報表示システム。 - 情報取得部は、前記視線方向が変化する速度に関する視線速度情報を取得し、
前記投影制御部は、前記視線速度情報に基づいて前記所定の閾値を変更する、
請求項3に記載の情報表示システム。 - 前記投影制御部は、
前記利用者の位置に関する位置情報を取得し、
前記投影対象の位置に関する情報と、前記投影対象に投影する情報とを記憶する記憶部から前記投影対象の位置に関する情報を取得し、
前記利用者の位置と、前記投影対象の位置とに基づいて、前記投影方向を決定する、
請求項1乃至6のいずれか一項に記載の情報表示システム。 - 前記投影部は、複数の投影対象に画像を投影し、
前記投影制御部は、前記投影する画像の重要度に応じて、前記画像の投影方法を変更する、
請求項1乃至7のいずれか一項に記載の情報表示システム。 - 前記取得部は、前記利用者が装着するウェアラブル端末が備える慣性計測デバイス、又は前記ウェアラブル端末が備えるカメラの少なくとも一方を用いて、前記検知情報を取得する、請求項1乃至8のいずれか一項に記載の情報表示システム。
- 前記投影部は、前記利用者が装着するウェアラブル端末が備える画像投影デバイスを用いて、前記投影対象に前記画像を投影する、請求項1乃至9のいずれか一項に記載の情報表示システム。
- 情報表示システムが、
利用者の姿勢に関する情報、又は前記利用者の視線に関する情報を含む検知情報を取得する取得処理と、
前記利用者に対して所定の投影方向にある投影対象に画像を投影する投影処理と、
前記検知情報と、前記投影方向に関する情報とに基づいて、前記投影対象に投影する画像を制御する投影制御処理と、
を実行する、情報表示方法。 - 情報表示システムに、
利用者の姿勢に関する情報、又は前記利用者の視線に関する情報を含む検知情報を取得する取得処理と、
前記利用者に対して所定の投影方向にある投影対象に画像を投影する投影処理と、
前記検知情報と、前記投影方向に関する情報とに基づいて、前記投影対象に投影する画像を制御する投影制御処理と、
を実行させる、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022041752A JP2023136238A (ja) | 2022-03-16 | 2022-03-16 | 情報表示システム、情報表示方法、及びプログラム |
US18/174,895 US20230300290A1 (en) | 2022-03-16 | 2023-02-27 | Information display system, information display method, and non-transitory recording medium |
EP23159000.1A EP4246281A1 (en) | 2022-03-16 | 2023-02-28 | Information display system, information display method, and carrier means |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022041752A JP2023136238A (ja) | 2022-03-16 | 2022-03-16 | 情報表示システム、情報表示方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023136238A true JP2023136238A (ja) | 2023-09-29 |
Family
ID=85410244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022041752A Pending JP2023136238A (ja) | 2022-03-16 | 2022-03-16 | 情報表示システム、情報表示方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230300290A1 (ja) |
EP (1) | EP4246281A1 (ja) |
JP (1) | JP2023136238A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023180902A (ja) * | 2022-06-10 | 2023-12-21 | トヨタ自動車株式会社 | 車両用表示制御装置及び表示処理方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140247263A1 (en) * | 2013-03-04 | 2014-09-04 | Microsoft Corporation | Steerable display system |
US20150364140A1 (en) * | 2014-06-13 | 2015-12-17 | Sony Corporation | Portable Electronic Equipment and Method of Operating a User Interface |
JP6720385B1 (ja) | 2019-02-07 | 2020-07-08 | 株式会社メルカリ | プログラム、情報処理方法、及び情報処理端末 |
JP2021192157A (ja) * | 2020-06-05 | 2021-12-16 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
-
2022
- 2022-03-16 JP JP2022041752A patent/JP2023136238A/ja active Pending
-
2023
- 2023-02-27 US US18/174,895 patent/US20230300290A1/en active Pending
- 2023-02-28 EP EP23159000.1A patent/EP4246281A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230300290A1 (en) | 2023-09-21 |
EP4246281A1 (en) | 2023-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112926428B (zh) | 使用合成图像训练对象检测算法的方法和系统和存储介质 | |
EP3345073B1 (en) | Localizing devices in an augmented reality environment | |
CN107004279B (zh) | 自然用户界面相机校准 | |
JP2024045273A (ja) | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 | |
CN110377148B (zh) | 计算机可读介质、训练对象检测算法的方法及训练设备 | |
US20230162411A1 (en) | Augmented reality map curation | |
US20230060453A1 (en) | Electronic device and operation method thereof | |
JP2017182340A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2012233963A (ja) | 投影システム、投影装置、投影方法、および制御プログラム | |
US20190369807A1 (en) | Information processing device, information processing method, and program | |
JP2018533124A (ja) | 注視仮想オブジェクト識別モジュール、注視半透過性を実現するためのシステム、および関連する方法 | |
JP2023136238A (ja) | 情報表示システム、情報表示方法、及びプログラム | |
KR20240008359A (ko) | 오디오 향상 증강 현실 | |
JP7405083B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
TW202026861A (zh) | 創作裝置、創作方法及儲存媒體 | |
KR20210150881A (ko) | 전자 장치 및 그 동작 방법 | |
EP4186028A1 (en) | Systems and methods for updating continuous image alignment of separate cameras | |
WO2023275919A1 (ja) | ウェアラブル端末装置、プログラムおよび表示方法 | |
US20230300314A1 (en) | Information processing apparatus, information processing system, and information processing method | |
JP2023136237A (ja) | ウエアラブル機器、作業支援装置、情報処理システム、及び作業支援システム | |
US11758104B1 (en) | Systems and methods for predictive streaming of image data for spatial computing | |
JP2012227830A (ja) | 情報処理装置、その処理方法、プログラム及び撮像装置 | |
WO2022208595A1 (ja) | ウェアラブル端末装置、プログラムおよび報知方法 | |
TWI759764B (zh) | 基於光通信裝置疊加虛擬物件的方法、電子設備以及電腦可讀取記錄媒體 | |
WO2021111975A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム |