JP2018036993A - 表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラム - Google Patents
表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラム Download PDFInfo
- Publication number
- JP2018036993A JP2018036993A JP2016171709A JP2016171709A JP2018036993A JP 2018036993 A JP2018036993 A JP 2018036993A JP 2016171709 A JP2016171709 A JP 2016171709A JP 2016171709 A JP2016171709 A JP 2016171709A JP 2018036993 A JP2018036993 A JP 2018036993A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- user
- display unit
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 241000287181 Sturnus vulgaris Species 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 49
- 230000003287 optical effect Effects 0.000 description 25
- 230000006870 function Effects 0.000 description 24
- 230000033001 locomotion Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 17
- 210000003128 head Anatomy 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 206010048669 Terminal state Diseases 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000005304 optical glass Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】ユーザのウエラブル端末の使用状態に応じて、ウエラブル端末と外部装置に適切に表示を行うことができる表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラムを提供する。
【解決手段】使用者の頭部に装着し第1の表示部を有するウエアラブル型端末と、第2の表示部を有するウエアラブル端末以外の機器とで、ほぼ同一のコンテンツを表示可能な情報表示方法において、使用者が凝視する対象を検出し(S1、S21〜S37)、第2の表示部で表示した画像を第1の表示部で表示する際に、対象に基づいて切り替えて制御する(S3、S5、S9)。
【選択図】 図4
【解決手段】使用者の頭部に装着し第1の表示部を有するウエアラブル型端末と、第2の表示部を有するウエアラブル端末以外の機器とで、ほぼ同一のコンテンツを表示可能な情報表示方法において、使用者が凝視する対象を検出し(S1、S21〜S37)、第2の表示部で表示した画像を第1の表示部で表示する際に、対象に基づいて切り替えて制御する(S3、S5、S9)。
【選択図】 図4
Description
本発明は、眼鏡型の表示部を有するウエラブル型端末、表示システム、携帯情報機器、情報表示方法およびプログラムに関する。
近年、いわゆる拡張現実感(AR:Augmented Reality)技術が発達し、コンピュータによって作成されるCG(Computer Graphics)などの仮想物体の画像を現実空間に仮想物体があるように表示することが可能となってきた。例えば、ユーザが表示部付き眼鏡(ウエラブル端末)を装着し、このウエラブル端末を介して現実空間を視認すると、表示部に種々の情報が現実空間に重畳して表示するウエラブル端末が提案されている(特許文献1参照)。
上述の先行技術では、眼鏡型のウエラブル端末の表示部に表示を行うことが開示されている。しかし、ユーザが凝視している対象によっては、眼鏡型ウエラブル端末の表示部に限らず、他の外部装置に表示を行う方がよい場合がある。しかし、上述の特許文献1には、この点については、何ら記載がない。
本発明は、このような事情を鑑みてなされたものであり、ユーザのウエラブル端末の使用状態に応じて、ウエラブル端末と外部装置に適切に表示を行うことができる表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラムを提供することを目的とする。
上記目的を達成するため第1の発明に係る表示システムは、使用者の頭部に装着し第1の表示部を有するウエアラブル型端末と、第2の表示部を有する上記ウエアラブル端末以外の機器とでほぼ同一のコンテンツを表示可能な表示システムにおいて、上記使用者が凝視する対象を判定する判定部と、上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記判定した上記対象に基づいて切り替えて制御する表示制御部と、を有する。
第2の発明に係る表示システムは、上記第1の発明において、上記判定部は、使用者の姿勢の時間的変化の特徴、または、特定時間の姿勢の継続に基づいて判定する。
第3の発明に係る表示システムは、上記第1の発明において、上記判定部は、上記使用者の姿勢情報を取得し、この姿勢情報に基づいて判定する。
第3の発明に係る表示システムは、上記第1の発明において、上記判定部は、上記使用者の姿勢情報を取得し、この姿勢情報に基づいて判定する。
第4の発明に係る表示システムは、上記第1の発明において、上記判定部は、周囲の音声情報を取得し、この取得した音声情報に基づいて判定する。
第5の発明に係る表示システムは、上記第1の発明において、上記判定部は、撮像部によって取得した画像情報に基づいて判定する。
第6の発明に係る表示システムは、上記第1の発明において、上記ウエアラブル端末を装着した際に、対面した人物の反応情報を取得する反応情報取得部を有し、上記表示制御部は、上記反応情報取得部によって取得した上記反応情報に基づいて、上記第2の表示部で表示した画像を上記第1の表示機器で表示する。
第5の発明に係る表示システムは、上記第1の発明において、上記判定部は、撮像部によって取得した画像情報に基づいて判定する。
第6の発明に係る表示システムは、上記第1の発明において、上記ウエアラブル端末を装着した際に、対面した人物の反応情報を取得する反応情報取得部を有し、上記表示制御部は、上記反応情報取得部によって取得した上記反応情報に基づいて、上記第2の表示部で表示した画像を上記第1の表示機器で表示する。
第7の発明に係る携帯情報機器は、使用者の頭部に装着し、上記使用者が現実空間を直接視認する方向に、可視光を透過可能な第1の表示部を有するウエラブル型端末と通信可能な携帯情報機器において、上記携帯情報機器に設けられた第2の表示部と、上記使用者が凝視する対象を検出する判定部と、上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記対象に基づいて切り替えて制御する表示制御部と、を有する。
第8の発明に係るウエラブル型端末は、第2の表示部と使用者が凝視する対象を判定する判定部を有する携帯情報機器と通信可能なウエラブル型端末において、上記ウエラブル型端末に設けられた第1の表示部と、上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記対象に基づいて切り替えて制御する表示制御部と、を有する。
第9の発明に係る情報表示方法は、使用者の頭部に装着し第1の表示部を有するウエアラブル型端末と、第2の表示部を有する上記ウエアラブル端末以外の機器とで、ほぼ同一のコンテンツを表示可能な情報表示方法において、上記使用者が凝視する対象を検出し、上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記対象に基づいて切り替えて制御する。
第10の発明に係る情報表示方法は、使用者の頭部に装着し、上記使用者が現実空間を直接視認する方向に、可視光を透過可能な第1の表示部を有するウエラブル型端末と通信可能であり、第2の表示部を有する携帯情報機器における情報表示方法において、上記使用者が凝視する対象を検出し、上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記検出した上記対象に基づいて切り替えて制御する。
第10の発明に係る情報表示方法は、使用者の頭部に装着し、上記使用者が現実空間を直接視認する方向に、可視光を透過可能な第1の表示部を有するウエラブル型端末と通信可能であり、第2の表示部を有する携帯情報機器における情報表示方法において、上記使用者が凝視する対象を検出し、上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記検出した上記対象に基づいて切り替えて制御する。
第11の発明に係るプログラムは、使用者の頭部に装着し、上記使用者が現実空間を直接視認する方向に、可視光を透過可能な第1の表示部を有するウエラブル型端末と通信可能であり、第2の表示部を有する携帯情報機器内に設けられたコンピュータを実行するプログラムにおいて、上記使用者が凝視する対象を検出し、上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記検出した上記対象に基づいて切り替えて制御する、
ことを上記コンピュータに実行させる。
ことを上記コンピュータに実行させる。
本発明によれば、ユーザのウエラブル端末の使用状態に応じて、ウエラブル端末と外部装置に適切に表示を行うことができる表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラムを提供することができる。
以下、本発明の好ましい実施形態として眼鏡型情報表示装置(以下、ウエアラブル部10と称す)と、外部機器20となからなる表示システムについて説明する。
図1(a)は、情報表示システムの概略を示すブロック図であり、図1(b)は、ユーザ40がウエアラブル部10を頭部に装着した状態を示している。ウエアラブル部10は、いわゆる眼鏡の形状をしており、光学部材41,42と、ユーザ40の頭部に装着するための装着部を有する。なお、光学部材41、42は、屈折力を有しない透明ガラス、透明プラスチック等でもよい。また、ウエアラブル部10は、制御部11、第1表示部12、情報取得部13を有する。
このウエアラブル部10は、使用者の頭部に装着し第1の表示部を有するウエアラブル型端末として機能する。また、ウエアラブル部10は、使用者の頭部に装着し、使用者が現実空間を直接視認する方向に、可視光を透過可能な第1の表示部を有するウエラブル型端末として機能する。
第1表示部12は、ユーザ40が右眼用光学部材41を介して外界を観察する際に、制御部11によって生成された画像を、外界の風景に重畳して表示させる。この光学部材41は表示部に対応する部分は拡大機能等を有し、その他の部分はシースルーの素通しの構成のものを想定している。しかし、これに限らず、半透過の反射ミラー、拡大ハーフミラー等を用いるようにしてもよい。図1(c)に示すように、ユーザ40は、左眼用光学部材42によって左視界(光学眼鏡視界)を観察できるが、この光学部材42は素通しでもよく、光学部がなくてもよい。右眼用光学部材41によって右視界(光学眼鏡視界)を観察できるが、この光学部材41も前述したように素通しであったり、光学部がなくてもよい。また、前述したように、右眼用光学部41の下側の表示領域12aにおいて、ユーザ40は、第1表示部12によって形成される画像を観察することができる。
なお、第1表示部12は、表示領域12aを右眼用部材41側に設けていたが、これに限らず左眼用部材42側に設けてもよい。このときは、表示部が視野全体となるが、目の前のものが見えなくならないように、例えば、後述の情報取得部で得た目の前の撮像結果を表示するようにすれば、素通しと同様の機能にできる。本実施形態は、現実世界において前方にある対象物に対するユーザの「凝視」に着目した提案である。ユーザは、目による視覚だけでなく、他の五感を駆使して、感じたものを見ようとするので、現実世界の対象物をよく見ようとする動作をよく行う。本実施形態においては、現実世界の対象物をよく見ようとする動作、すなわち、素通しの先にある現実の対象物を見ようとする状況を検出することを「凝視検出」または「凝視判定」としている。つまり、眼鏡型ウエアラブル端末に仮想的に表示されたものを凝視するような状況もあるが、それよりも、姿勢や体勢などの変化を伴う、現実世界の注視状態の検出によって、特別な操作をすることなく、直感的、無意識、ハンズフリーで表示切換を行うことを発明として説明している。
情報取得部13は、画像入力部13aと音声入力部13bを有する。画像入力部13aは、図1(b)に示すように、画像を形成するための撮影レンズや画像を光電変換するための撮像素子等を含むカメラ13aaを有する。画像入力部13aによって変換された画像データは、制御部11に出力される。音声入力部13bは、音声を音声データに変換するためのマイク13bbを有し、ここで変換された音声データは、制御部11に出力される。なお、図1(b)においては、第1表示部12、画像入力部13a、カメラ13aa、音声入力部13b、およびマイク13bbは、別体のように描かれているが、ウエラブル部10として一体に構成されている。
ユーザは、何かを凝視すると、特定の姿勢になって目を凝らすので、特定時間、画像や音声情報が変化しないようなことを検出した場合には、「凝視」と判定してもよい。あるいは、検出された画像がモニタの画像であったり、予め学習やプログラムで記録された特定の対象物の画像であったり、検出された音声が特定の機器の音声や、ユーザの声であった場合には、「凝視」と判定してもよい。本実施形態においては、今回、何を見ているかに応じて表示部における表示を切り替えるので、ユーザの仕草や姿勢、体勢を判定しやすいウエアラブル部10に情報取得部13を設けることは有利である。ユーザが見ている画像を検出するのみならず、見ている画像の変化や推移などを検出してもよい。情報取得部や動きセンサ部は、共に凝視判定に使えるが、一方でも組合せでもよい。いずれの場合も、特定の状態になっての時間や、特定の第1の状態から特定の第2の状態への推移の特徴などで判定が可能となる。
もちろん、その人のつぶやきや体の動かし方の癖を学習(ユーザが満足したかどうかを音声などで判定し、教師データとすれば良い)して利用してもよい。こうした情報取得部や動きセンサ部は、別体として、そのデータを用いて凝視判定してもよく、そのデータを他の機器が受信して凝視判定してもよい。つまり、使用者の姿勢の時間的変化の特徴、または、特定時間の姿勢の継続に基づいてユーザの凝視状態を判定することができる。この姿勢は動きそのものや、動いた結果や、画像そのものや画像の推移によって判定できる。
制御部11は、CPU(Central Processing Unit)とその周辺回路およびメモリ等を有する。CPUはメモリに記憶されたプログラムに従って、ウエアラブル部10内の各部を制御することによってウエラブル部10の全体を実行する。周辺回路は、ウエラブル部10がいずれの方位に向いているかを検出するための電子コンパスや、凝視仰角を測定するための傾き検出用のセンサや、動きを検出するジャイロ等の動きセンサを有する。
また、制御部11内の周辺回路としては、通信回路を有し、外部機器20と通信を行う。通信方式としては、WiFiやブルートゥース(登録商標)等の無線通信や、赤外通信等を使用してもよく、この場合にはいずれか一方の通信方式でもよく、また両方式を使用してもよい。また、両方式を使用する場合には、ブロードキャストモード等によるWiFi通信によって画像通信を行い、ブルートゥース(登録商標)によって外部機器との制御用信号の通信を行ってもよい。
外部機器20は、据え置き型PC(Personal Computer)、ノート型PC、タブレットPC、スマートフォン等の表示部と通信回路を有する機器であればよい。本実施形態においては、外部機器20としてスマートフォンに適用した場合について説明するが、これ以外の機器であっても勿論かまわない。
外部機器20は、制御部21、第2表示部22、情報取得部23を有する。外部機器20は、第2の表示部を有するウエアラブル端末以外の機器として機能する。このウエアラブル端末以外の機器とウエアラブル型端末は、ほぼ同一のコンテンツを表示可能である。また、外部機器20は、第2の表示部と使用者が凝視する対象を判定する判定部を有する携帯情報機器として機能する。
第2表示部20は、液晶パネル、有機ELパネル等を有し、画像を表示する。画像としては、外部機器20がスマートフォンの場合には、スマートフォンのメニュー画面や、後述するようにドローンと連携している場合には、ドローンから送信されてきた画像等がある。情報取得部23は、ユーザが外部機器20に情報を入力するものであり、例えば、キーボード、タッチパネル等がある。
制御部21は、CPU(Central Processing Unit)とその周辺回路およびメモリ等を有する。CPUはメモリに記憶されたプログラムに従って、外部機器20内の各部を制御することによって外部機器20の全体を実行する。また、制御部21内の周辺回路として、通信回路を有し、ウエラブル部10や、第2の外部機器等と通信を行う。
なお、図1(a)においては、制御部11はウエラブル部10に配置され、制御部21は外部機器20に配置されている。第1表示部12および第2表示部22の表示制御(切り替え制御を含む)を行う表示制御部30の機能は、制御部11が担ってもよく、制御部21が担ってもよい。また、両制御部11、21が協働して実行するようにしてもよい。
外部機器20をユーザが見ているかどうかは、画像情報に基づいて、この外部機器20の形状を判定してもよいし、外部機器20の表示内容で判定しても良い。外部機器20に特別な表示(例えば、バーコードやパターン等、機器によって読み取りが容易な表示)をよって行わせることによって、判定の際に補助するようにしてもよく、発光パターンや発音パターンを組み合わせてもよい。ちらっと見る場合は、ちらっと見た時も見たいという意志がある場合もあるので、「凝視」に分類してもよい。凝視の時間で判定するより、ちらっと見る時の動きパターンなどを画像や動き(姿勢変化)で判定すればよい。
表示制御部30は、使用者が凝視する対象を判定する判定部(例えば、図4(a)のS1、図4(b)、図6のS67)として機能する。この判定は、前述したように、画像、音声、動きなどのデータを取得して、その特徴、変化の特徴などに基づいて行えばよい。判定結果を表示した際のユーザの声や身振りなどを利用して、ユーザが判定結果を満足したか否かを判定し、状況ごとに良い悪い等の結果を蓄積し、人工知能を利用した学習を利用することにより、さらなる性能アップが可能となる。
また、表示制御部30は、第2の表示部で表示した画像を第1の表示部で表示する際に、判定した対象に基づいて切り替えて制御する表示制御部として機能する(例えば、図4のS3、S5、S9参照)。この表示制御部は、表示部を一体的に備えるウエアラブル部内に設けられていてもよく、また外部機器側に設けられていてもよい。また、表示制御部は、これらの機器内に備えられた制御部が連携することによって実現してもよく、さらに他の機器と連携することによって実現するようにしてもよい。
上述の判定部は、使用者の姿勢情報を取得し、この姿勢情報に基づいて判定する(例えば、図4(b)のS23、S25、S31参照)。また、判定部は、周囲の音声情報を取得し、この取得した音声情報に基づいて判定する(例えば、図4(b)のS27、S31参照)。また、判定部は、撮像部によって取得した画像情報に基づいて判定する(例えば、図4(b)のS29、S31参照)。また、判定部は、使用者の姿勢の時間的変化の特徴、または、特定時間の姿勢の継続に基づいて判定する。この判定は、取得した画像、音声、姿勢の情報そのものだけではなく、その継続時間や、その状態になるまでの過程を考慮して行ってもよい。複合的に組み合わせて学習させてもよい。従って、画像入力部(撮像部)や音声入力部は、ユーザの姿勢や所作に応じて取得できる方向が変わるように、適度に指向性があるものを想定してもよい。もちろん、指向性制御を有する画像入力部や音声入力部を用いても同様の機能を達成することができる。つまり、ユーザの顔の前にあるものを直視している時に、素通しで見えるものが、取得した情報に基づいて判定可能に配置・構成されていることが望ましい。
次に、図2および図3を用いて、本実施形態における表示システムの使用例について説明する。図2は、ユーザ40がウエラブル部10を頭部に装着し、外部機器20を用いて遠隔操作可能な無線操縦航空機(ドローン50)を操縦しながら、撮影を行う様子を示す。なお、外部機器20として、スマートフォンを使用している。また、本実施形態においては、ドローンを使用しているが、航空機に限らず、ロボット、陸上を移動可能な機械、水中を移動可能な機械にも応用が可能である。
ドローン50は、安全を確保する観点から、目視で操縦することが望ましい。そこで、ユーザ40はウエラブル部10の右眼用光学部材41と左眼用光学部材42を透してドローン50を見ながら、外部機器20の第2表示部22上に設けられたタッチパネル22aをタッチ操作することにより、ドローン50の操縦を行う。光学部を素通し状態とすることにより、余計な表示を無くし、操縦に集中することができる。
後述するように、ユーザ40がドローン50を凝視すると、ドローン操縦用の接眼部表示モード1および外部機器表示モード1に切り替わる(図4(a)のS3→S9→S11の接眼部表示モード1参照)。この凝視しているかの判定は、ウエラブル部10の画像入力部13aによって取得した画像について画像認識によって行うようにしてもよい。例えば、画像中にドローン50があれば、ユーザ40がドローン50を凝視していると判定してもよい。また、画像中の操縦部(外部機器20の第2表示部22に表示される)が表示状態から見えなくなった場合に、ユーザ40がドローン50を凝視していると判定してもよい。もちろん、ドローン操縦時であることがわかれば、徐々に上昇、徐々に下降とか、上空を見上げるといった姿勢や姿勢の変化で、操縦時に見ているものを推測(凝視判定)してもよい。
ドローン操縦用の接眼部表示モード1と外部機器表示モード1に切り替わると、外部機器20の表示部22には、ドローン50を前進操縦するためのアイコン22b、後退操縦させるためのアイコン22c、左旋回操縦させるためのアイコン22d、右旋回操縦させるためのアイコン22eが表示される。
また、右眼用光学部材41の表示領域12a(接眼部表示)には、操縦ガイド表示が行われる。操縦ガイド表示としては、上述のアイコン22b〜22eと、ドローンで撮影した画像が表示可能である。図2に示される例では、ユーザ40が前進させるアイコン22bをタッチ操作させていることから、表示領域12aに表示されるアイコン22bが、他のアイコンと識別されるように表示される。
また、ドローン50はカメラ51を搭載しており、カメラ51で撮影した動画の画像データは、外部機器20を介して、またはドローン50から直接、ウエラブル部10の通信回路に送信される。ドローン50からの画像データは、表示領域12aにアイコン22b〜22eと共に表示される。これによって、ドローン視点での観察が可能となり、これまで見られなかったものを簡単に確認できるようになる。操縦と観察がシームレスにできれば、誰にでも安全に、直接目視が困難な場所にある観察対象物を詳細に観察することが容易にできる。また、露出制御やピント制御等を行う観察にこだわった操作や、目標物に安全に近づくことにこだわった操作を併用した高度な観察もできる。
表示領域12aは、上述したように、右眼用光学部材41の下側であり、この表示領域12aにドローン50からの画像と外部機器20のアイコンを表示しない場合には、外部機器20が見える。このため、表示領域12aでの表示は、外部機器20の表示パネルと重なる位置であり、ユーザ40は、あたかも外部機器20を直接見ながら操縦しているような感覚で違和感がない。
なお、ドローン50を上昇させるように操縦する場合には、外部機器20を手前にあおるように搖動させ(図中の矢印Aの方向)、下降させるように操縦する場合には、外部機器20を向こう側にあおるように搖動させればよい(図中の矢印Bの方向)。
次に、図3(a)は、カメラ51のカメラ操作を行うために、ユーザ40の凝視対象がドローン50から外部機器20に移った状態を示す。凝視対象が外部機器20に代わると、図3(a)に示すように、ユーザ40は、右眼用光学部材41および左眼用光学部材42を透して、外部機器20を見えることができる。後述するように、ユーザ40が外部機器20を凝視すると、外部機器操作用の接眼部表示モード2および外部機器表示モード2に切り替わる(図4(a)のS3→S5→S7の接眼部表示モード1参照)。
ユーザ40の凝視対象がドローン50に向いていないことから、安全な飛行を確保するために、外部機器20からドローン50に対して、移動を停止し、同じ位置に留まるホバリングを行うように指示がなされる。また、右眼用光学部材41の表示領域12aには、ドローン50が移動停止状態であることが表示される。
外部機器20の表示パネルには、メニュー等、カメラ操作を行うための表示がなされると共に、ドローン50からの画像22fも表示される。ユーザ40は、この画像を見ながら、ピントを合わせ、露出を調整し、静止画撮影の指示を行う等、カメラ操作を行う。
図3(b)は、ユーザ40が他人43にドローン50で撮影した画像等を確認している様子を示す。この場合には、ユーザ40は外部機器20を凝視している状態にあることから、この場合も接眼部表示モード2および外部機器表示モード2で、外部機器20と表示領域12aの表示がなされる。
このように、本実施形態においては、ユーザ40が凝視する対象物に応じて、ウエラブル部10の表示領域12aと外部機器20における表示を切り替えるようにしている。このため、ウエラブル部10の表示領域12aには、必要なガイド表示がなされて、ドローン50の操縦に集中できる。また、外部機器20は、ユーザ40の凝視対象に応じて、ドローン50の操縦装置として最適な表示を行うことが可能となる。
次に、図4ないし図8に示すフローチャートを用いて、本実施形態の動作について説明する。図4(a)に示すフローチャートは、ウエラブル部10、外部機器20、およびドローン50からなる表示システムにおけるメイン動作を示す。このフローは、ウエラブル部10内の制御部11および外部機器20内の制御部12、およびドローン50内の制御部にそれぞれ設けてあるCPUが、それぞれの内部メモリに記憶されたプログラムに従って、各機器の各部を制御することによって実行する。なお、各機器における動作については、図5ないし図8に示すフローチャートを用いて説明する。
図4(a)に示すフローがスタートすると、まず、眼鏡型端末の状態判定を行う(S1)。ここでは、眼鏡型端末であるウエラブル部10を装着したユーザ40の凝視対象がドローン50であるか、外部機器20であるかを判定する。この眼鏡型端末の状態判定の詳しい動作については、典型的で説明しやすい例である図4(b)を用いて後述する。
ステップS1において眼鏡型端末の状態判定を行うと、凝視対象が対象1であったか、対象2であったかを判定する(S3)。ここでは、ステップS1での判定結果に従って、凝視対象がドローン50(対象1)であったか、外部機器20(対象2)であったかを判定する。
ステップS3における判定結果が対象1、すなわちユーザの凝視対象がドローン50であった場合には、接眼部表示モード1を実行し(S5)、外部機器表示モード1を実行する(S7)。ステップS5では、接眼部、すなわち右眼用光学部材41の下側の表示領域12aに、図2に示すようなドローン操縦用等の操縦ガイド表示を行わせる。ステップS7では、外部機器20(この実施形態では、スマートフォン)に、ドローン50の操縦用の表示を行う。具体的には、図2に示すようなアイコン22b〜22eを表示する。
一方、ステップS3における判定結果が対象2、すなわちユーザの凝視対象が外部機器20であった場合には、接眼部表示モード2を実行し(S9)、外部機器表示モード2を実行する(S11)。ステップS9では、接眼部、すなわち右眼用光学部材41の下側の表示領域12aに、図3(a)に示すようなドローンが停止状態であることの表示を行う。またステップS11では、外部機器20に、ドローン50のカメラ操作の表示を行わせる。具体的には、図3(a)に示すようなドローン撮影のライブビュー画像(または撮影画像)やメニュー画面、カメラ操作アイコン等を表示する。
ステップS7において外部機器表示モード1を実行すると、またはステップS11において外部機器表示モード2を実行すると、ステップS1に戻る。
このように、本実施形態に係るシステムにおける表示部制御のフローにおいては、ユーザ40が対象1(ここでは、ドローン50)を凝視しているか、対象2(ここでは、外部機器20)を凝視しているかを判定し、判定結果に応じて、接眼部(表示領域12a)における表示モードと、外部機器20(スマートフォン)における表示モードを切り替える。このため、ウエラブル部10の接眼部(表示領域12a)と外部機器20の表示部には、ユーザ40のシステムの使用状況に応じた表示が適切に表示される。
なお、本実施形態においては、対象1はドローン50とし、対象2は外部機器20としたが、これに限らず、本発明が適用されているシステムによって、対象1、2は適宜選択すればよい。
次に、ステップS1における眼鏡型端末状態判定の詳しい動作について、図4(b)に示すフローチャートを用いて説明する。
眼鏡型端末状態判定のフローに入ると、まず、通信状態の判定を行う(S21)。ここでは、ウエラブル部10が、いずれの機器と通信を行っているかを判定する。図2および図3に示した例では、ウエラブル部10は外部機器20と通信可能であり、また外部機器20はドローン50と通信可能であり、この通信先を判定する。ウエラブル部10は、外部機器20を利用して、外部機器20および/またはドローン50の間の通信状態を判定することができ、またこれらの機器の情報を取得することができる。
次に、凝視方位判定を行う(S23)。ここでは、ウエラブル部10内の電子コンパスによって、ウエラブル部10が向いている方向を検出する。また、凝視仰角判定を行う(S25)。ここでは、ウエラブル部10内の傾きセンサや動きセンサ等を用いて、ウエラブル部10の向いている仰角を検出する。
続いて、内蔵カメラ画像判定を行う(S27)。ここでは、情報取得部13内の画像入力部13aによって取得した画像データに基づいて、画像認識によって画像を識別する。また、内蔵マイク音声判定を行う(S29)。ここでは、情報取得部13内の音声入力部13bによって取得した音声データに基づいて、周囲にある音声を識別する。
以上の処理を行うと、次に、有力情報で対象判定を行う(S31)。ここでは、ステップS21からS29において取得した情報に基づいて、表示制御部30が、ウエラブル部10を装着したユーザが凝視している対象を判定する。例えば、仰角判定の結果、空を見上げており、カメラ画像判定の結果、ドローンの映像があり、マイク音声判定の結果、プロペラ音を抽出した場合には、凝視対象が対象1(ドローン)であると判定する。一方、仰角判定の結果、水平より見下げており、カメラ画像判定の結果、外部機器の映像がある場合には、凝視対象が対象2(外部機器20)であると判定する。この判定は表示制御部30が行うが、ウエラブル部10内の制御部11または外部機器20内の制御部21のいずれかが単独で行ってもよく、また両制御部が協働して行ってもよい。
ステップS31において対象判定を行うと、次に、凝視対象が対象1か否かを判定する(S33)。ステップS31における判定の結果、凝視対象が対象1であった場合には、「対象1」(S35)とし、一方、凝視対象が対象2であった場合には、「対象2」(S37)とする。
このように、眼鏡型端末状態判定のフローにおいては、各機器の状態を判定し、この判定結果に基づいて、ウエラブル部10を装着したユーザ40が、対象1(ここでは、ドローン50)を凝視しているか、対象2(ここでは、スマートフォン)を凝視しているかを判定している。なお、このフローでは、ステップS21〜S29における情報に基づいて判定しているが、判定のための情報としては、いずれかのステップを省略してもよく、また別の情報を取得するようにしてもよい。本発明が適用されるシステムに応じて適宜選択すればよい。
なお、図4に示すフローにおいては、説明の容易さから、各状態の静止状態的な状況判断を強調して説明しているが、前述のように、それぞれ、所定時間の継続や、変化の特徴などが、実際には判定される。遷移パターンや複合的な判断にすれば精度や満足度があがり、さらには、様々なパラメータや画像などを人工知能で学習させて判断してもよい。
次に、図5ないし図8に示すフローチャートを用いて、各機器の動作について説明する。図5に示すフローチャートは、外部機器20の動作を示す。このフローは、外部機器20の制御部21内のCPUが内部メモリに記憶されたプログラムに従って、外部機器20内の各部を制御することにより実行する。
携帯端末制御のフローがスタートすると、まず、機能別アイコンの一覧表示を行う(S41)。ここでは、外部機器20が実行できる機能について、第2表示部22にアイコンの一覧形式で表示される。ここで表示される機能として「眼鏡型連携」がある。眼鏡型連携は、図2および図3を用いて説明したように、ユーザ40が使用するスマートフォン(外部機器20)の状態に応じて、表示状態を変更するモードである。なお、眼鏡型連携以外にも、例えば、顕微鏡連携、内視鏡連携等、他の外部機器と連携するモードを表示するようにしてもよい。
次に、眼鏡型連携が選択された否かを判定する(S43)。ユーザ40は、眼鏡型連携を選択したい場合には、操作部材によってカーソルを移動させ、またはタッチ操作等によって、眼鏡型連携を選択することができる。このステップでは、ユーザ40の操作状態に基づいて判定する。
ステップS43における判定の結果が眼鏡型連携でない場合には、下位機能のアイコンを表示する(S45)。ここでは、ステップS41において表示されたアイコンの中で、ユーザ40が選択したアイコンに対応する機能について、下位機能のアイコンを第2表示部22に表示する。
次に、アイコンを選択したか否かについて判定する(S47)。ここでは、ステップS47において表示したアイコンの中で、ユーザ40が選択しているか否かを判定する。この判定の結果、アイコンを選択していた場合には、選択機能を起動する(S49)。続いて、終了か否かを判定する(S51)。ここでは、選択された機能が終了したか否かを判定する。この判定の結果、終了していない場合には、選択された機能を実行する。
ステップS47における判定の結果、アイコンが選択されていない場合には、戻るか否かを判定する(S53)。外部機器20には、最初の状態(ホームポジション)に戻るためのアイコンまたは操作部材が設けてある。このステップでは、このアイコンがタッチされ、または操作部材が操作されてかに基づいて判定する。この判定の結果、戻るが選択されていない場合には、ステップS45に戻り、下位機能のアイコンを表示する。
ステップS53における判定の結果、戻るが選択された場合、またはステップS51における判定の結果、終了した場合には、ステップS41に戻る。
ステップS43に戻り、このステップにおける判定の結果、眼鏡型連携の場合には、その他、連携機能一覧表示を行う(S61)。ここでは、眼鏡型連携における連携先、ドローン50と、これ以外の連携先、例えば、顕微鏡連携、内視鏡連携等、他の外部機器と連携するモードを表示する。
次に、ドローン連携か否かを判定する(S63)。ユーザ40は、ドローン連携を選択したい場合には、操作部材によってカーソルを移動させ、またはタッチ操作等によって、ドローン連携を選択することができる。このステップでは、ユーザ40の外部機器20に対する操作状態に基づいて判定する。この判定の結果、ユーザがドローン以外との連携を選択した場合には、その他の機能を実行する。
ステップS63における判定の結果、ドローン連携が選択されていた場合には、次に、ドローン連携におけるメニューを表示する(S65)。ここでは、第2表示部22に種々のメニューを表示する。例えば、ドローンが複数ある場合に、いずれのドローンと連携をとるか、また外部機器20やドローン50との通信方式、ドローン50に搭載したカメラの初期設定、ドローン50自体の初期設定等、各種設定のためのメニュー表示を行う。いずれかのメニューの項目が選択されると、選択事項に沿って実行される。
次に、目視対象が操縦部かドローンか否かを判定する(S67)。ここでは、図4(b)で説明した眼鏡型端末状態判定等に基づいて、ユーザ40が凝視している対象が、ドローン50であるか、操縦部を有する外部機器20(スマートフォン)であるかを判定する。この判定は、本実施形態においては、表示制御部30が行っている。表示制御部30の内の外部機器20の制御部21が単独で行っている。これ以外にも、外部機器20とウエラブル部10が協働して行ってもよく、またウエラブル部10が判定した結果を受信するようにしてもよい。
ステップS67における判定の結果、目視対象がドローンであった場合には、接眼部と端末表示部に操縦部ガイド表示を行う(S69)。ここでは、ユーザ40は、図2を用いて説明したように、ドローン50を凝視している状態である。そこで、ウエラブル部10の表示領域12aと、外部機器20(スマートフォン)には、ユーザ40がドローン50の操縦に専念できるように表示を行う。すなわち、ウエラブル部10の表示領域12aには、操縦用アイコン22b〜22eを表示するように、ウエラブル部10に信号を送信する。また、外部機器20の第2表示部22には、操縦用のアイコン22b〜22eを大きく表示し、ユーザ40が画面を見ない状態で手探りでもタッチ操作により操縦しやすくする。
続いて、操作に従ってドローン操作信号を送信する(S71)。ここでは、アイコン22b〜22eのタッチ状態や、ユーザによる外部機器20の動かし方等に基づいて、ドローン50を前進、後退、左右旋回、上昇、下降等の操縦信号をドローン50に送信する(図7のS95参照)。
続いて、ライブビューを行うか否かを判定する(S73)。ユーザ40は、ドローン50が搭載しているカメラからの画像を確認しながらドローン50の操縦を行いたい場合がある。一方、ウエラブル部10の電源は小型である場合が多く、電源消耗を防止したい場合には、ユーザ40はカメラからの画像表示を望まない。そこで、このステップでは、ユーザ40がライブビュー表示を行うか否かを選択できるようにするために、ライブビュー表示用のアイコンまたは操作部を設け、この操作状態に基づいてライブビューを行いか否かを判定する。
ステップS73における判定の結果、ライブビューであった場合には、ドローン50のカメラを起動し、画像は接眼部(表示領域12a)に表示させる(S75)。ライブビュー表示は、図3(a)に示すように、表示領域12aに行う(後述する図7のS99参照)。
一方、ステップS73における判定の結果、ライブビューを行わない場合には、ドローンカメラをオフ、表示もオフ(S77)。ここでは、電源消耗を防止するために、ドローン50に搭載されたカメラをオフとし、またウエラブル部10の表示領域12aの表示もオフとする。
ステップS67に戻り、このステップにおける判定の結果が、目視対象が操縦部であった場合には、ドローンを停止する(S79)。前述したように、ドローン50の操縦にあたっては、安全確保の観点から、ユーザ40が直接、ドローン50を見ている状態で行うことが望ましい。そこで、ユーザ40が、外部機器20(スマートフォン)の第2表示部22の操縦用画面(アイコン22b〜22e等)を見ている状態では、ドローン50を飛行させることは望ましくない。そこで、本実施形態においては、目視対象が操縦部である場合には、外部機器20は、ドローン50に対して空中で停止した状態、すなわちホバリングを行うように指示する。
続いて、接眼部にドローン停止表示を行う(S81)。ユーザ40は、操縦部をウエラブル部10の光学部材41、42を透して目視している。そこで、ウエラブル部10の表示領域12aに、図3(a)に示すように、停止状態であることを表示させるように、通信を介して指示する。
ドローンの停止表示を行うと、次に、ライブビューか否かを判定する(S83)。ここでは、ステップS73と同様に、ユーザ40がライブビュー表示を行うか否かを選択するので、この選択結果に基づいて判定する。
ステップS83における判定の結果、ライブビューであった場合には、ドローン50のカメラを起動し、画像は接眼部(表示領域12a)に表示させる(S85)。ここでは、ステップS75と同様に、ライブビュー表示を、図3(a)に示すように、表示領域12aに行う(後述する図7のS99参照)。
続いて、端末表示部にもライブビュー表示を行う(S87)。ここでは、外部表示部20の第2表示部22にもライブビュー表示を行う。ユーザ40は、外部表示部20の第2表示部22を見ていることから、この表示部にもライブビュー表示を行い、ドローン50の状態を確認できるようにしている。
次に、操作に従って、カメラ制御を行う(S89)。外部機器20の第2表示部22には、撮影用のメニュー画面や、静止画や動画の撮影指示、ピント合わせ指示、露出補正指示、光学フィルタ挿入指示、画像処理指示等、各種のアイコンが表示されている。このステップでは、ユーザ40のタッチ操作等に従って、カメラ操作を行う(後述する図7のS103参照)。なお、アイコン以外に、カメラ操作用の操作部材を設け、この操作状態に従ってカメラ制御を行ってもよい。
ステップS83に戻って、このステップにおける判定の結果、ライブビューを行わない場合には、ドローンカメラをオフ、表示もオフする(S91)。ここでは、電源消耗を防止するために、ドローン50に搭載されたカメラをオフとし、またウエラブル部10の表示領域12aの表示もオフとする。
ステップS75、S77、S87、S91において、それぞれの処理を実行すると、次に、ドローン操作が終了か否かを判定する(S93)。ユーザ40は、ドローン50の操作を終了する場合には、終了アイコンや終了操作部材等を操作する。このステップではこれらの操作に応じて判定する。ステップS93における判定の結果、ドローン操作が終了していない場合には、ステップS67に戻る。
一方、ステップS93における判定の結果、ドローン操作が終了の場合には、ドローンを帰還させる(S95)。ここでは、ドローン50がユーザ40のところへ無事に戻れるように、帰還のための制御を行う(後述する図7のS95参照)。ドローン50が帰還すると、ステップ41に戻る。
このように、携帯端末制御のフローにおいては、眼鏡連携、ドローン連携が選択されると(S43、S63参照)、ユーザ40がドローン50を凝視しているか、外部機器20を凝視していかの目視対象物に応じて、ウエラブル部10の表示領域12aと外部機器20の第2表示部22における表示を切り替えている(S69、S81)。このため、ユーザの凝視対象に応じて最適な表示がなされる。また、ウエラブル部10が外部機器20と連携するようにしているので、外部機器20が有している情報、例えば、ドローン50の操縦過程や履歴情報等を利用することができ、総合的な判断が可能となる。さらに、外部機器20を介して外部の機器やデータベース等と連携し、また人工知能を活用することができる。
なお、本フローは、携帯端末(スマートフォン)でドローン50の制御を行うようにしている。しかし、この例に限らず、例えば、専用コントローラによって制御を行うようにしてもよく、この場合でも、眼鏡型端末(ウエラブル部)によってドローン50の制御を行うようにすればよい。また、図5および図6に示すフローにおいては、説明の容易さから、各状態の静止状態的な状況判断を強調して説明しているが、前述のように、それぞれ、所定時間の継続や、変化の特徴などが、実際には判定される。遷移パターンや複合的な判断にすれば精度や満足度があがり、さらには、様々なパラメータや画像などを人工知能で学習させて判断してもよい。
次に、図7に示すフローチャートを用いて、ドローン50の動作を示す。このフローは、ドローン50の制御部内のCPUが内部メモリに記憶されたプログラムに従って、ドローン50内の各部を制御することにより実行する。
ドローン制御のフローがスタートすると、まず通信待ちする(S91)。本実施形態において、外部機器20がドローン50の操縦機器としての役割を有しており、ドローン50ha外部機器20からの制御信号に基づいて動作する。このステップでは、外部機器20からドローン50に信号が送信されるのを待つ。通信があると、ステップS93以下を実行する。
続いて、移動操作通信か否かを判定する(S93)。ユーザ40がドローン50を凝視している場合には、外部機器20からドローン操作信号が送信されてくる(図6のS71参照)。このステップでは、外部機器20からの通信が移動操作のための通信であるか否かを判定する。
ステップS93における判定の結果、移動操作通信であった場合には、操作応じた移動制御を行う(S95)。ここでは、外部機器20からの指示に従って、前進、後退、左旋回、右旋回、上昇、下降、ホバリング等の制御を行う。また、外部機器20から帰還指示がなされている場合には、ユーザ40のもとへ戻る。
ステップS93における判定の結果、移動操作通信でない場合には、次に、ライブビュー通信か否かを判定する(S97)。前述したように、ユーザ40がドローン50のカメラ部で撮影したライブビュー画像を確認したい場合には、ドローンカメラを起動し、画像を送信するように指示がなされる。このステップでは、この指示を受信したか否かに基づいて判定する。
ステップS97における判定の結果、ライブビュー通信があった場合には、指定送信先に送信する(S99)。ここでは、ドローン50に搭載されたカメラ部を起動し、このカメラ部で取得した画像データを、指定先に送信する。指定先としては、ウエラブル部10および/または外部機器20があり、またこれ以外の送信先でもよい。
ステップS97における判定の結果、ライブビュー通信でない場合には、次に、カメラモード等であるか否かを判定する(S101)。ユーザ40は、ドローン50に搭載されたカメラの操作を行う場合には、操作指示を送信してくる(図6のS89参照)。このステップでは、この指示がなされたか否かを判定する。
ステップS101における判定の結果、カメラモード等である場合には、操作に応じた撮影制御を行う(S103)。ここでは、外部機器20からの指示に応じて撮影制御を行う。
ステップS101における判定の結果、カメラモード等でない場合、またステップS95、S99、S103における処理を実行すると、ステップS91に戻る。
このように、本実施形態におけるドローン制御のフローでは、ユーザ40が外部機器20から通信によって指示してくる命令に従って、ドローン50の制御を行っている。なお、ドローン50においても、電源消耗を防止したい場合には、撮像動作や撮像した画像の送信等を制限するようにしてもよい。また、図7に示すフローにおいては、説明の容易さから、各状態の静止状態的な状況判断を強調して説明しているが、前述のように、それぞれ、所定時間の継続や、変化の特徴などが、実際には判定される。遷移パターンや複合的な判断にすれば精度や満足度があがり、さらには、様々なパラメータや画像などを人工知能で学習させて判断してもよい。
次に、図8に示すフローチャートを用いて、眼鏡型端末(ウエラブル部10)の動作について説明する。このフローは、ウエラブル部10の制御部11内のCPUが内部メモリに記憶されたプログラムに従って、ウエラブル部10内の各部を制御することにより実行する。
眼鏡型端末のフローがスタートすると、まず通信待ちする(S111)。本実施形態において、ウエラブル部10は、外部機器20からの通信に基づいて動作する。このステップでは、外部機器20からウエラブル部10に信号が送信されてくるのを待つ。
次に、通信があるか否かを判定する(S113)。前述したように、通信方式としては、WiFiやブルートゥース(登録商標)等の無線通信や、赤外通信等のいずれか1つ又は複数の通信方式を使用している。このステップでは、いずれかの通信方式によって外部機器20からアクセスがあったか否かを判定する。
ステップS113における判定の結果、通信があった場合には、各センサをオンとする(S115)。前述したように、本実施形態においては、ウエラブル部10は、凝視方位検出用の電子コンパス、凝視仰角検出用のセンサ、内蔵カメラ、内蔵マイク等の種々のセンサを有しており(図4(b)参照)、これらのセンサの動作を開始させる。
各種センサをオンとすると、次に、凝視対象の判定を行う(S117)。ここでは、ステップS115において動作を開始させた各種センサの検出出力を用いて、図4(b)のフロー等に基づいて、凝視対象の判定を行う。
凝視対象の判定を行うと、次に、判定結果を送信する(S119)。ここでは、ステップS117における凝視対象の判定結果を、通信回路を介して外部機器20に送信する。外部機器20は、この検出結果に基づいて凝視対象の判定を行い、この判定結果に基づいて、表示の切り替えを行う(図6のS69、S81参照)。
次に、コマンド通信か否かの判定を行う(S121)。ここでは、外部機器20(スマートフォン)から眼鏡型端末にコマンドが送信されてきたか否かを判定する。
ステップS121における判定の結果、コマンドが送信されてきた場合には、コマンドに合わせた制御(表示)を行う(S123)。前述したように、外部機器20は表示制御についてコマンドをウエラブル部10に送信してくる(図6のS69、S75、S77、S81、S85、S87等)ので、これらのコマンドに応じた制御を行う。例えば、前述したように、ウエラブル部10の電源消耗を防止したい場合には、ライブビュー表示をオフするコマンドが送信されてくる。この場合には、ウエラブル部10にライブビュー表示を行わない。
ステップS123においてコマンドに合わせた制御を行うと、またはステップS121における判定の結果、コマンド通信でない場合、またはステップS113における判定の結果、通信でない場合には、ステップS111に戻る。
このように、眼鏡型端末のフローにおいては、外部機器20からのコマンドに応じて表示を行うようにしている(S123参照)。このため、眼鏡型端末と外部機器で状況に応じた適切な表示が可能となる。また、ライブビュー表示をオフとすることにより、電源消耗を防止することができる。なお、図8に示すフローにおいては、説明の容易さから、各状態の静止状態的な状況判断を強調して説明しているが、前述のように、それぞれ、所定時間の継続や、変化の特徴などが、実際には判定される。遷移パターンや複合的な判断にすれば精度や満足度があがり、さらには、様々なパラメータや画像などを人工知能で学習させて判断してもよい。
以上、説明したように、本発明の第1実施形態は、眼鏡型端末に適用したウエラブル部10、スマートフォンに適用した外部機器20、およびドローン50からなるシステムにおいて、ユーザ40の凝視対象に応じて、ウエラブル部10と外部機器20に表示する内容を異ならせて、操作をし易くしている。
次に、図9ないし図11を用いて、本発明の第2実施形態について説明する。第2実施形態は、ウエラブル部10を装着した医師44が、患者を診察するにあたって、各種情報を表示部に表示することができるようにしている。
本実施形態の構成は、図1(a)におけるウエラブル部10を医師44が装着し、外部機器20としてはパーソナルコンピュータ(PC)60を用い、これらの主な構成は、第1実施形態と同様である。なお、外部機器20の第2表示部22は、パーソナルコンピュータの表示パネルが相当し、制御部21、情報取得部23を有する。
情報取得部23としては、キーボード、タッチパネル、マイクロフォン等を有する。制御部21の周辺回路として、ウエラブル部10と通信を行うための通信回路を有する。パーソナルコンピュータ60は、スタンドアロンであってもよいが、本実施形態においては、病院内のLAN(Local Area Network)に接続された院内端末として説明する。
次に、図9を用いて、本実施形態におけるウエラブル部10とパーソナルコンピュータ60の使い方について説明する。
図9(a)は、ウエアラブル部10を装着した医師44が患者45を診察している様子を示す。この状態では、ウエアラブル部10は、患者45を凝視している。この状態では、ウエアラブル部10に設けられた画像入力部13aによって取得した画像は、パーソナルコンピュータ60の表示モニタには表示されず、ウエラブル部10の第1表示部12の表示エリア12aに表示されるのみである。また、このときのライブビュー画像は、パーソナルコンピュータ60に送信され、パーソナルコンピュータ60内のメモリに記憶される。
図9(b)は、医師44が患者45に症状(診断結果)を説明している様子を示す。この状態では、ウエアラブル部10は、パーソナルコンピュータ60の表示モニタを凝視している。この状態では、ウエアラブル部10の表示領域12aは消灯され、パーソナルコンピュータ60の表示モニタに、メモリに記憶された患者の画像が表示される。
図9(c)は、パーソナルコンピュータ60の表示パネルへの表示の変形例を示す。すなわち、図9(b)に示す例は、医師44が患者45を凝視すると、自動的にパーソナルコンピュータ60の表示パネルに患者45の患部を表示するようにしていた。これに対して、図9(c)に示す変形例では、患者45が「見せてください」と依頼し、これに医師44が「はい」と応じた場合、すなわち、会話で許可がなされた場合に、パーソナルコンピュータ60の表示パネルに、患者45の患部を表示するようにしている。このために、パーソナルコンピュータ60は、マイクロフォンで収集した音声データを用いて音声認識を行って判定している。パーソナルコンピュータ60の表示パネルに表示がなされると、ウエアラブル部10の表示領域12aにおける表示は消灯するようにしてもよい。
なお、表示領域12aには、図9(c)に示すように、患者45の患部を2つ並列に表示するようにしてもよい。この場合には、過去に撮影し、記録されている画像と、今回の診察で撮影された画像を比較するために表示する。図9(c)において、会話で表示が許可された後に、パーソナルコンピュータ60の表示パネルに2つの画像が並列に表示されているのも、過去と今回の画像を比較のためである。
次に、図10に示すフローチャートを用いて、パーソナルコンピュータ60における動作について説明する。このフローは、パーソナルコンピュータ60内の制御部のCPUが、内部メモリに記憶されたプログラムに従って制御する。
図10に示す院内端末のフローがスタートすると、まず、操作を待つ(S131)。例えば、マウス、キーボード、バーコード読み取り等の種々の操作がなされたか否かを判定し、これらの操作が無い場合には、待機状態となる。ステップS131における判定の結果、操作を検出すると、ウエアラブル部10と端末通信を行う(S133)。ここでは、パーソナルコンピュータ60とウエアラブル部10の間で、無線通信を行う(後述する図11のS161参照)。
ウエラブル端末通信を行うと、次に、情報取得のための入力操作がなされたか否かを判定する(S135)。情報取得のための入力操作としては、キーボード入力やマイクロフォンによる音声入力等がある。このステップでは、いずれかの情報入力がなされたか否かを判定する。
ステップS135における判定の結果、情報入力操作がなされた場合には、次に、情報取得の入力元が何であるか判定する(S137)。ここでは、情報入力元が、キーボード等であるか、音声入力であるか、判定する。なお、情報取得の入力元の判定にあたっては、ウエラブル部10における情報も利用するようにしてもよい(後述する図11のS163、S165参照)。
ステップS137における判定の結果、音声入力であった場合には、情報を取得し、接眼表示を行う(S139)。ここでは、マイクロフォンから音声データを入力し、この入力に基づいて、例えば、患者を特定する。例えば、医師44が患者の名前等を称呼した際に、音声認識を行う。ウエラブル部10の表示領域12aに、取得した情報の表示を行う。例えば、患者を特定した場合には、患者の氏名等を表示する。
続いて、音声交渉判定を行う(S143)。ここでは、マイクロフォンから入力した音声データに基づいて、医師44と患者45の会話の内容を判定する。例えば、図9(c)に示したような会話に基づいて判定を行う。なお、この会話内容の認識(音声認識)にあたっては、パーソナルコンピュータ60が行ってもよく、また院内のサーバが行ってもよく、さらに外部サーバに接続し、この外部サーバによって音声認識を行うようにしてもよい。
ステップS143における判定の結果、シェアされた場合、すなわち、音声による交渉内容を判定できた場合には、情報取得し、デスクトップ表示を行う(S145)。ここでは、音声交渉の結果に応じた情報を取得し、この取得した情報をパーソナルコンピュータの表示パネルに表示する。
ステップS137に戻り、このステップにおける判定の結果、キーボード等の入力元であった場合には、情報を取得し、デスクトップ表示を行う(S141)。ここでは、キーボード等によって取得した情報を、パーソナルコンピュータ60の表示パネルに表示する。
ステップS141またはS145において、情報を取得しデスクトップ表示を行うと、またはステップS143における判定の結果、音声交渉の結果がシェアされない場合には、またはステップS135において、情報取得入力操作がなされていない場合には、凝視方向の判定を行う(S147)。ここでは、医師44が患者45の方を向いているのか、それともパーソナルコンピュータ60の表示パネルの方を向いているのかを判定する。凝視方向の判定方法としては、図4(b)のフローチャートに示す条件等に基づいて判定すればよい。なお、凝視方向の判定にあたっては、ウエラブル部10における情報も利用するようにしてもよい(後述する図11のS163、S165参照)。
ステップS147における判定の結果、医師44の凝視方向が患者45の方向であれば、接眼表示を行う(S149)。ここでは、ウエラブル部10の画像入力部13aで取得した画像を、図9(a)に示すように、ウエラブル部10の表示領域12aに表示する。
一方、ステップS147における判定の結果、医師44がパーソナルコンピュータ60の表示パネルに向いている場合には、デスクトップ表示を行う(S151)。ここでは、ウエラブル部10の表示領域12aの表示を消灯し、パーソナルコンピュータ60の表示パネルに、患者45の患部等、患者に診察結果を説明するに役立つ情報の表示を行う。
ステップS149またはS151において表示を行うと、次に、ログアウトか否かを判定する(S153)。ここでは、パーソナルコンピュータ60にログアウト処理が施されたか否かを判定する。この判定の結果、ログアウト処理が施されていない場合には、ステップS133に戻る。
一方、ステップS153における判定の結果、ログアウト処理が施された場合には、ウエラブル端末をオフする(S155)。ウエラブル部10においてオフ処理が施されると(図11のS177)、その旨が通信されてくるので、この通信に基づいて判定する。ウエラブル端末をオフとなると、ステップS131に戻る。
このように、院内端末のフローにおいては、ウエラブル部10はPC等の院内端末と通信を行いながら、情報を処理し、表示を適切に切り替えることができる。なお、本実施形態においては、図6のS73、S83におけるライブビューの可否については行っていない。しかし、第1実施形態と同様に、ウエラブル部10における電源消耗を防止するために、ライブビューの表示のオンオフを行えるようにしても勿論かまわない。また、院内端末は、院内サーバや外部のサーバと接続し、種々の情報を取得すると共に、音声認識、画像認識等の外部処理を行うようにしてもよい。外部連携が可能となることにより、種々の作業が容易となる。
次に、図11に示すフローチャートを用いて、本実施形態におけるウエアラブル部10の動作について説明する。このフローは、ウエアラブル部10の制御部11内のCPUが、内部メモリに記憶されたプログラムに従って制御する。
図11に示すウエアラブル部のフローがスタートすると、まず、通信待ちを行う(S161)。院内端末(パーソナルコンピュータ60)は、ステップS133において、ウエアラブル部10に通信を行ってくるので、この通信を待つ。
ステップS161における判定の結果、通信があると、次に、各種入力部の起動を行う(S163)。ここでは、ウエアラブル部10内の画像入力部13aや音声入力部13b等の各種入力部を起動する。
各種入力部を起動すると、次に、各種入力結果を送信する(S165)。ここでは、ステップS163において起動した入力部によって取得した情報を院内端末(パーソナルコンピュータ60)に送信する。なお、情報の送信にあたっては、そのままのデータでなくてもよい。
各種入力結果の送信を行うと、次に、接眼部(表示領域12a)が表示可能か否かを判定する(S167)。前述した情報取得の入力元の判定結果に応じて、ステップS139においては接眼部で表示可能である一方、ステップ141では接眼部では表示を行っていない。また、医師44の凝視方向に応じて、ステップS149では接眼部で表示可能である一方、ステップS151では接眼部では表示を行っていない。このステップでは、院内端末からの指示に基づいて、接眼部が表示可能か否かを判定する。
ステップS167における判定の結果、接眼表示が可能な場合には、接眼表示を行う(S171)。ここでは、表示領域12aに、例えば図9(a)に示すような表示を行う。一方、判定の結果、接眼表示が不可の場合には、接眼表示をオフする(S169)。ここでは、例えば、図9(b)に示すように、表示領域12aの表示をオフとする。なお、不都合がなければ、表示をそのまま継続しておいてもよい。表示をオフとすることにより、ウエラブル部10における電源消耗を防止することができる。
ステップS171において、接眼表示を行うと、次に、撮影指示や解除がなされたか否かを判定する(S173)。撮影指示がなされると、画像入力部13aによって取得される画像データに基づく静止画撮影が指示され、解除されるまで表示される。ここでは、この撮影指示・解除がおこなわれたか否かを判定する。また動画の場合には、動画撮影の開始が指示されたか、動画撮影の終了が指示されたか等について判定する。
ステップS173における判定の結果、撮影指示・解除がなされた場合には、撮影結果の保持または解除を行う(S175)。ここでは、ステップS173の判定結果に基づいて、静止画像の表示(フリーズ)、動画像の記録開始・終了を行う。なお、画像入力部13aで取得される画像データの記録は、パーソナルコンピュータ60に送信し、そこで行うが、ウエアラブル部10で行えるようにしてもよい。撮影結果が解除されると、通常のライブビュー表示に戻る。
ステップS175において撮影結果の保持・解除がなされると、またはステップS169において接眼表示をオフすると、またはステップS173における判定の結果、撮影指示・解除が無い場合には、次に、端末オフ情報か否かを判定する(S177)。前述したように、院内端末の動作中にステップS155において、ウエラブル端末のオフを行うと通信によって通知が来る。このステップでは、この通知があるか否かに基づいて判定する。この判定の結果、端末オフ情報がない場合には、ステップS161に戻る。
ステップS177における判定の結果、端末オフ情報がある場合には、各種入力部をオフする(S179)。ここでは、ステップS163において起動した各種入力部をオフする。各種入力部をオフにすると、ステップS161に戻る。
このように、本発明の第2実施形態においては、医師44が患者45を凝視している場合には、ウエアラブル部10の表示領域12に患者の患部等の画像を表示するようにしている(図9(a)、図10のS149、図11のS171等)。また、医師44がパーソナルコンピュータ60を見ながら患者45に症状を説明するような場合には、パーソナルコンピュータ60に画像を表示するようにしている(図9(b)、図10のS151、図11のS169等)。このため、本実施形態においても、ウエアラブル部10を装着したユーザの凝視方向に応じて、ウエアラブル部10と外部機器20(パーソナルコンピュータ60)の表示部における表示を適切にすることができる。
また、第2実施形態においては、ウエアラブル端末を装着した際に、対面した人物の反応情報を取得する反応情報取得部を有し、表示制御部は、反応情報取得部によって取得した反応情報に基づいて、第2の表示部で表示した画像を第1の表示機器で表示するようにしている(例えば、図9(c)、図10のS143、S145参照)。このため、周囲の状況に応じて、自動的に第1の表示部と第2の表示部に適切な表示を行うことができる。
以上説明したように、本発明の各実施形態においては、使用者が凝視する対象を検出し(例えば、図4(a)のS1、図4(b)、図6のS67等参照)、第2の表示部で表示した画像を第1の表示部で表示する際に、対象に基づいて切り替えて制御する(例えば、図4(a)のS3、S5、S9、図6のS69、S81等参照)。このため、ユーザのウエラブル端末の使用状態に応じて、ウエラブル端末と外部装置に適切に表示を行うことができる。すなわち、ユーザが凝視している対象に応じて、表示を適切に行うことができる。
なお、本発明の各実施形態においては、無線操縦型航空機をスマートフォンを介して操縦する例と、医師が患者を診察する場合に、本発明を適用した例について説明した。しかし、この例以外にも、ウエラブル端末と他の外部機器の両方に表示を行うシステムであれば、本発明を適用することができる。
また、本発明の各実施形態においては、制御部としてCPUとその周辺回路及びプログラムによって実行する例について説明した。しかし、これに限らず、機能の一部または全部をヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またDSP(Digital Signal Processor)等のソフトを利用したハードウエア構成を利用してもよい。これらは適宜組み合わせてもよいことは勿論である。また、様々な判定の機能については、人工知能による学習結果を反映させてもよい。
また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。
また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
10・・・ウエアラブル部、11・・・制御部、12・・・第1表示部、12a・・・表示領域、13・・・情報取得部、13a・・・画像入力部、13b・・・音声入力部、20・・・外部機器、21・・・制御部、22・・・情報取得部、22a・・・タッチパネル、22b・・・アイコン、22c・・・アイコン、22d・・・アイコン、22e・・・アイコン、30・・・表示制御部、40・・・ユーザ、41・・・光学部材、42・・・光学部材、43・・・他人、44・・・医師、45・・・患者、50・・・ドローン、51・・・カメラ
Claims (11)
- 使用者の頭部に装着し第1の表示部を有するウエアラブル型端末と、第2の表示部を有する上記ウエアラブル端末以外の機器とでほぼ同一のコンテンツを表示可能な表示システムにおいて、
上記使用者が凝視する対象を判定する判定部と、
上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記判定した上記対象に基づいて切り替えて制御する表示制御部と、
を有することを特徴とする表示システム。 - 上記判定部は、使用者の姿勢の時間的変化の特徴、または、特定時間の姿勢の継続に基づいて判定することを特徴とする請求項1に記載の表示システム。
- 上記判定部は、上記使用者の姿勢情報を取得し、この姿勢情報に基づいて判定することを特徴とする請求項1に記載の表示システム。
- 上記判定部は、周囲の音声情報を取得し、この取得した音声情報に基づいて判定することを特徴とする請求項1に記載の表示システム。
- 上記判定部は、撮像部によって取得した画像情報に基づいて判定することを特徴とする請求項1に記載の表示システム。
- 上記ウエアラブル端末を装着した際に、対面した人物の反応情報を取得する反応情報取得部を有し、
上記表示制御部は、上記反応情報取得部によって取得した上記反応情報に基づいて、上記第2の表示部で表示した画像を上記第1の表示機器で表示する、
ことを特徴とする請求項1に記載の表示システム。 - 使用者の頭部に装着し、上記使用者が現実空間を直接視認する方向に、可視光を透過可能な第1の表示部を有するウエラブル型端末と通信可能な携帯情報機器において、
上記携帯情報機器に設けられた第2の表示部と、
上記使用者が凝視する対象を検出する判定部と、
上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記対象に基づいて切り替えて制御する表示制御部と、
を有することを特徴とする携帯情報機器。 - 第2の表示部と使用者が凝視する対象を判定する判定部を有する携帯情報機器と通信可能なウエラブル型端末において、
上記ウエラブル型端末に設けられた第1の表示部と、
上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記対象に基づいて切り替えて制御する表示制御部と、
を有することを特徴とするウエラブル型端末。 - 使用者の頭部に装着し第1の表示部を有するウエアラブル型端末と、第2の表示部を有する上記ウエアラブル端末以外の機器とで、ほぼ同一のコンテンツを表示可能な情報表示方法において、
上記使用者が凝視する対象を検出し、
上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記対象に基づいて切り替えて制御する、
ことを特徴とする情報表示方法。 - 使用者の頭部に装着し、上記使用者が現実空間を直接視認する方向に、可視光を透過可能な第1の表示部を有するウエラブル型端末と通信可能であり、第2の表示部を有する携帯情報機器における情報表示方法において、
上記使用者が凝視する対象を検出し、
上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記検出した上記対象に基づいて切り替えて制御する、
ことを特徴とする情報表示方法。 - 使用者の頭部に装着し、上記使用者が現実空間を直接視認する方向に、可視光を透過可能な第1の表示部を有するウエラブル型端末と通信可能であり、第2の表示部を有する携帯情報機器内に設けられたコンピュータを実行するプログラムにおいて、
上記使用者が凝視する対象を検出し、
上記第2の表示部で表示した画像を上記第1の表示部で表示する際に、上記検出した上記対象に基づいて切り替えて制御する、
ことを上記コンピュータに実行させることを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016171709A JP2018036993A (ja) | 2016-09-02 | 2016-09-02 | 表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラム |
CN201710727931.5A CN107798733B (zh) | 2016-09-02 | 2017-08-23 | 显示系统、便携信息设备、可佩戴型终端和信息显示方法 |
US15/690,266 US10571689B2 (en) | 2016-09-02 | 2017-08-29 | Display system, mobile information unit, wearable terminal and information display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016171709A JP2018036993A (ja) | 2016-09-02 | 2016-09-02 | 表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018036993A true JP2018036993A (ja) | 2018-03-08 |
Family
ID=61280466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016171709A Pending JP2018036993A (ja) | 2016-09-02 | 2016-09-02 | 表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10571689B2 (ja) |
JP (1) | JP2018036993A (ja) |
CN (1) | CN107798733B (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6429347B1 (ja) * | 2018-05-18 | 2018-11-28 | 豊 川口 | 視界表示システムおよび移動体 |
WO2021235147A1 (ja) * | 2020-05-18 | 2021-11-25 | 株式会社Nttドコモ | 情報処理システム |
JP2022502798A (ja) * | 2018-09-24 | 2022-01-11 | アイダプティック, インク.Eyedaptic, Inc. | 電子視覚補助具における自律的ハンズフリー制御の改善 |
US11989351B2 (en) | 2019-05-07 | 2024-05-21 | Adam Farley | Virtual, augmented and mixed reality systems with physical feedback |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6919222B2 (ja) * | 2017-02-27 | 2021-08-18 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
JP6572943B2 (ja) * | 2017-06-23 | 2019-09-11 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
KR20190122546A (ko) * | 2018-04-20 | 2019-10-30 | 한국과학기술원 | 가상현실 또는 증강현실에서의 운동감각을 구현하는 웨어러블 장치 및 그 제어방법 |
CN115280845B (zh) * | 2020-04-01 | 2023-10-13 | Oppo广东移动通信有限公司 | 一种小区切换方法、电子设备及存储介质 |
CN111650594A (zh) * | 2020-05-08 | 2020-09-11 | 江苏杰瑞科技集团有限责任公司 | 基于无人机的超视距目标定位系统及方法 |
CN111552076B (zh) * | 2020-05-13 | 2022-05-06 | 歌尔科技有限公司 | 一种图像显示方法、ar眼镜及存储介质 |
CN115134524B (zh) * | 2022-06-24 | 2023-08-18 | 深圳市聚芯影像有限公司 | 一种基于物联网的智慧车载摄像头控制系统 |
CN117156267B (zh) * | 2023-09-07 | 2024-05-14 | 思翼科技(深圳)有限公司 | 基于环境自适应的云台相机工作模式切换方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4642400B2 (ja) * | 2004-07-20 | 2011-03-02 | オリンパス株式会社 | 情報表示システム |
JP5656457B2 (ja) | 2010-06-01 | 2015-01-21 | シャープ株式会社 | 商品情報提供端末装置および商品情報提供システム |
JP5993127B2 (ja) * | 2011-10-25 | 2016-09-14 | オリンパス株式会社 | 頭部装着型表示装置、情報端末、プログラム、情報記憶媒体、画像処理システム、頭部装着型表示装置の制御方法及び情報端末の制御方法 |
US9442290B2 (en) * | 2012-05-10 | 2016-09-13 | Kopin Corporation | Headset computer operation using vehicle sensor feedback for remote control vehicle |
KR101861380B1 (ko) * | 2012-07-16 | 2018-05-28 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이 |
JP6108926B2 (ja) * | 2013-04-15 | 2017-04-05 | オリンパス株式会社 | ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法 |
JP6608137B2 (ja) * | 2014-01-03 | 2019-11-20 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ディスプレイ上の両眼転導検出 |
US20150325202A1 (en) * | 2014-05-07 | 2015-11-12 | Thalmic Labs Inc. | Systems, devices, and methods for wearable computers with heads-up displays |
KR20160138806A (ko) * | 2015-05-26 | 2016-12-06 | 엘지전자 주식회사 | 글래스타입 단말기 및 그 제어방법 |
US20180061128A1 (en) * | 2016-08-23 | 2018-03-01 | Adobe Systems Incorporated | Digital Content Rendering Coordination in Augmented Reality |
-
2016
- 2016-09-02 JP JP2016171709A patent/JP2018036993A/ja active Pending
-
2017
- 2017-08-23 CN CN201710727931.5A patent/CN107798733B/zh active Active
- 2017-08-29 US US15/690,266 patent/US10571689B2/en active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6429347B1 (ja) * | 2018-05-18 | 2018-11-28 | 豊 川口 | 視界表示システムおよび移動体 |
JP2019200712A (ja) * | 2018-05-18 | 2019-11-21 | 豊 川口 | 視界表示システムおよび移動体 |
JP2022502798A (ja) * | 2018-09-24 | 2022-01-11 | アイダプティック, インク.Eyedaptic, Inc. | 電子視覚補助具における自律的ハンズフリー制御の改善 |
US11989351B2 (en) | 2019-05-07 | 2024-05-21 | Adam Farley | Virtual, augmented and mixed reality systems with physical feedback |
WO2021235147A1 (ja) * | 2020-05-18 | 2021-11-25 | 株式会社Nttドコモ | 情報処理システム |
JP7373068B2 (ja) | 2020-05-18 | 2023-11-01 | 株式会社Nttドコモ | 情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
CN107798733A (zh) | 2018-03-13 |
CN107798733B (zh) | 2021-08-13 |
US20180067309A1 (en) | 2018-03-08 |
US10571689B2 (en) | 2020-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107798733B (zh) | 显示系统、便携信息设备、可佩戴型终端和信息显示方法 | |
JP7411133B2 (ja) | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード | |
KR102630774B1 (ko) | 외부 조건들에 기초한 웨어러블 디스플레이 디바이스의자동 제어 | |
JP7492558B2 (ja) | 視野周辺の視覚的背光 | |
KR102472428B1 (ko) | 광-방출 사용자 입력 디바이스 | |
US10416835B2 (en) | Three-dimensional user interface for head-mountable display | |
JP2024069187A (ja) | 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース | |
CN105745568B (zh) | 用于在可头戴式设备上执行多触摸操作的系统和方法 | |
KR20230106727A (ko) | 시선-기반 사용자 상호작용 | |
CN111656256A (zh) | 利用注视跟踪和焦点跟踪的系统和方法 | |
EP3676745B1 (en) | Privacy screen for computer simulated reality | |
JP6507827B2 (ja) | 表示システム | |
KR102110208B1 (ko) | 안경형 단말기 및 이의 제어방법 | |
JP2021096490A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN108369451B (zh) | 信息处理装置、信息处理方法及计算机可读存储介质 | |
JPWO2021059359A1 (ja) | アニメーション制作システム | |
JP2021192178A (ja) | デバイス、制御方法及びプログラム | |
US20240104859A1 (en) | User interfaces for managing live communication sessions | |
US20240104860A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
US20210349533A1 (en) | Information processing method, information processing device, and information processing system | |
JP2022118501A (ja) | 表示システム、表示装置とその制御方法及びプログラム | |
KR20240048522A (ko) | 3차원 환경들과 상호작용하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
CN117043720A (zh) | 用于与环境中的对象进行交互的方法 | |
CN117590936A (zh) | 使用经由可穿戴设备的神经肌肉信号传感器检测的空中手势来导航用户界面,及其系统和使用方法 | |
CN117590934A (zh) | 一种使用多阶段手势来激活用户界面交互的方法及系统 |