JP7039672B1 - Controls, programs, and control methods - Google Patents
Controls, programs, and control methods Download PDFInfo
- Publication number
- JP7039672B1 JP7039672B1 JP2020181643A JP2020181643A JP7039672B1 JP 7039672 B1 JP7039672 B1 JP 7039672B1 JP 2020181643 A JP2020181643 A JP 2020181643A JP 2020181643 A JP2020181643 A JP 2020181643A JP 7039672 B1 JP7039672 B1 JP 7039672B1
- Authority
- JP
- Japan
- Prior art keywords
- content
- display
- control unit
- spectacle
- type device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000001514 detection method Methods 0.000 claims abstract description 55
- 230000004044 response Effects 0.000 claims description 77
- 230000033001 locomotion Effects 0.000 claims description 25
- 238000010079 rubber tapping Methods 0.000 claims description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 claims description 5
- 238000010586 diagram Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 29
- 238000003384 imaging method Methods 0.000 description 19
- 230000004424 eye movement Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000004397 blinking Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Abstract
【課題】眼鏡型デバイスにおいて、装着者であるユーザによる簡単な操作方法でコンテンツを一時的に非表示にする制御装置、プログラム及び制御方法を提供する。【解決手段】眼鏡型デバイスにおいて、制御装置200は、眼鏡型デバイスのレンズにコンテンツを表示させる表示制御部と、表示制御部によってレンズにコンテンツが表示されている間に眼鏡型デバイスの装着者による予め定められた動作を検出したことに応じて、コンテンツの表示を停止させる停止制御部と、を備える。【選択図】図4PROBLEM TO BE SOLVED: To provide a control device, a program and a control method for temporarily hiding contents by a simple operation method by a user who is a wearer of a spectacle-type device. In a spectacle-type device, a control device 200 is composed of a display control unit that displays content on a lens of the spectacle-type device, and a wearer of the spectacle-type device while the content is displayed on the lens by the display control unit. A stop control unit for stopping the display of the content according to the detection of a predetermined operation is provided. [Selection diagram] FIG. 4
Description
本発明は、制御装置、プログラム、及び制御方法に関する。 The present invention relates to a control device, a program, and a control method.
特許文献1には、透明又は半透明の状態のまま、テキストや図等の画像を表示することで、実空間の風景にARの仮想オブジェクトを重畳表示することができる表示部を備えるAR(Augmented Reality)グラスが記載されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2019-114078号公報
Patent Document 1 includes an AR (Augmented) having a display unit capable of superimposing and displaying an AR virtual object on a landscape in a real space by displaying an image such as a text or a figure in a transparent or semi-transparent state. Reality) Glass is described.
[Prior Art Document]
[Patent Document]
[Patent Document 1] Japanese Unexamined Patent Publication No. 2019-114078
本発明の一実施態様によれば、制御装置が提供される。制御装置は、眼鏡型デバイスのレンズにコンテンツを表示させる制御部を備えてよい。制御装置は、制御部によってレンズにコンテンツが表示されている間に眼鏡型デバイスの装着者による予め定められた動作を検出したことに応じて、コンテンツの表示を停止させる停止制御部を備えてよい。 According to one embodiment of the present invention, a control device is provided. The control device may include a control unit for displaying the content on the lens of the spectacle-type device. The control device may include a stop control unit that stops the display of the content in response to detecting a predetermined motion by the wearer of the spectacle-type device while the content is displayed on the lens by the control unit. ..
上記停止制御部は、上記装着者による上記眼鏡型デバイスに対する予め定められた動作を検出したことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者によって上記眼鏡型デバイスが持ち上げられたことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者によって上記眼鏡型デバイスのフレームがタップされたことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者の手が上記眼鏡型デバイスのフレームに触れている間、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者が上記眼鏡型デバイスのレンズを手で覆ったことに応じて、上記コンテンツの表示を停止させてよい。 The stop control unit may stop the display of the content in response to the detection of a predetermined operation of the wearer on the spectacle-type device. The stop control unit may stop the display of the content in response to the lifting of the spectacle-type device by the wearer. The stop control unit may stop the display of the content in response to the tapping of the frame of the spectacle-type device by the wearer. The stop control unit may stop the display of the content while the wearer's hand is touching the frame of the spectacle-type device. The stop control unit may stop the display of the content in response to the wearer covering the lens of the spectacle-type device with his / her hand.
上記停止制御部は、上記装着者による予め定められた目の動作を検出したことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者による予め定められた視線移動を検出したことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者による予め定められた瞬きを検出したことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者が片目を閉じたことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者が予め定められた時間、両目を閉じたことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者の視線が、上記レンズに表示されたコンテンツの非表示指示を受け付けるためのオブジェクトに予め定められた時間以上継続して向けられたことに応じて、上記コンテンツの表示を停止させてよい。 The stop control unit may stop the display of the content in response to detecting a predetermined eye movement by the wearer. The stop control unit may stop the display of the content in response to detecting a predetermined line-of-sight movement by the wearer. The stop control unit may stop the display of the content in response to detecting a predetermined blink by the wearer. The stop control unit may stop the display of the content in response to the wearer closing one eye. The stop control unit may stop the display of the content according to the wearer closing both eyes for a predetermined time. The stop control unit determines that the wearer's line of sight is continuously directed to the object for receiving the non-display instruction of the content displayed on the lens for a predetermined time or longer. You may stop the display.
上記停止制御部は、上記表示制御部によって上記レンズに上記コンテンツが表示されている間に上記装着者による予め定められた複数種類の動作を検出したことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者による上記眼鏡型デバイスに対する予め定められた動作と、上記装着者による予め定められた目の動作とを検出したことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記装着者の手が上記眼鏡型デバイスのフレームに触れている間に、上記装着者による予め定められた視線移動を検出したことに応じて、上記コンテンツの表示を停止させてよい。上記停止制御部は、上記コンテンツの表示を停止させている間に、上記装着者による上記予め定められた動作を検出したことに応じて、上記コンテンツの表示を再開させてよい。上記停止制御部は、上記装着者による第1の種類の動作を検出したことに応じて上記コンテンツの表示を停止させている間に、上記装着者による上記第1の種類の動作とは異なる第2の種類の動作を検出したことに応じて、上記コンテンツの表示を再開させてよい。上記停止制御部は、上記表示制御部によって上記レンズにコンテンツが表示されているときに、上記装着者による予め定められた動作を検出したことに応じて、上記コンテンツの表示を停止させ、当該動作が解除されたことに応じて、コンテンツの表示を再開させてよい。 The stop control unit stops the display of the content in response to the detection of a plurality of predetermined types of movements by the wearer while the content is being displayed on the lens by the display control unit. It's okay. The stop control unit stops the display of the content in response to the detection of the predetermined movement of the wearer on the spectacle-type device and the predetermined eye movement of the wearer. good. The stop control unit stops the display of the content in response to detecting a predetermined line-of-sight movement by the wearer while the wearer's hand is touching the frame of the spectacle-type device. You can do it. The stop control unit may restart the display of the content in response to the detection of the predetermined operation by the wearer while the display of the content is stopped. While the stop control unit stops displaying the content in response to detecting the first type of operation by the wearer, the stop control unit is different from the first type of operation by the wearer. The display of the above content may be resumed in response to the detection of the two types of operations. The stop control unit stops the display of the content in response to detecting a predetermined operation by the wearer when the content is displayed on the lens by the display control unit, and the operation is stopped. The display of the content may be resumed according to the cancellation of.
本発明の一実施態様によれば、コンピュータを、上記制御装置として機能させるためのプログラムが提供される。 According to one embodiment of the present invention, a program for making a computer function as the control device is provided.
本発明の一実施態様によれば、コンピュータによって実行される制御方法が提供される。制御方法は、眼鏡型デバイスのレンズにコンテンツを表示させる制御段階を備えてよい。制御方法は、レンズにコンテンツが表示されている前記眼鏡型デバイスの装着者による予め定められた動作を検出したことに応じて、コンテンツの表示を停止させる停止制御段階を備えてよい。 According to one embodiment of the invention, a control method performed by a computer is provided. The control method may include a control step of displaying the content on the lens of the spectacle-type device. The control method may include a stop control step of stopping the display of the content in response to detecting a predetermined operation by the wearer of the spectacle-type device in which the content is displayed on the lens.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the necessary features of the present invention. A subcombination of these feature groups can also be an invention.
AR(Augmented Reality)グラス等の眼鏡型デバイスは、今後普及が進み、ユーザが日常的に眼鏡型デバイスを装着して移動するシーンが増加することが想定される。この場合に、何もケアをしなければ、眼鏡型デバイスをかける視界に常にCG(Computer Graphics)のコンテンツが表示される状態になり得る。また、現実空間のみを見たい場合や、コンテンツが邪魔になる場合も想定され、コンテンツを非表示にする設定や一時的に眼鏡型デバイスを外すなどしなければならないケースが発生する。本実施形態に係る眼鏡型デバイス100は、装着者であるユーザ102による簡単な操作方法でコンテンツを一時的に非表示にする方法を提供する。
It is expected that eyeglass-type devices such as AR (Augmented Reality) glasses will become more widespread in the future, and that the number of scenes in which users wear eyeglass-type devices on a daily basis and move around will increase. In this case, if no care is taken, the contents of CG (Computer Graphics) may always be displayed in the field of view of wearing the spectacle-type device. In addition, there may be cases where you want to see only the real space, or the content may be an obstacle, and you may have to set to hide the content or temporarily remove the glasses-type device. The spectacle-
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention within the scope of the claims. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention.
図1は、システム10の一例を概略的に示す。システム10は、眼鏡型デバイス100を備える。眼鏡型デバイス100は、例えば、ARグラスであってよい。眼鏡型デバイス100は、眼鏡型デバイス100の撮像範囲に合わせたコンテンツを透明又は半透明のグラス上に表示することによって、実空間にコンテンツが配置されている感覚をユーザ102に与えることが可能なデバイスであってよい。すなわち、眼鏡型デバイス100は、いわゆる透過型(シースルー型)のデバイスであってよい。眼鏡型デバイス100の撮像範囲は、眼鏡型デバイス100が備えるカメラの撮像範囲であってよい。眼鏡型デバイス100の撮像範囲は、眼鏡型デバイス100を装着しているユーザ102の視界に対応する範囲であってよい。眼鏡型デバイス100の撮像範囲は、例えば、ユーザ102の視界と実質的に同じ範囲であってよい。眼鏡型デバイス100は、いわゆるビデオパススルー型のデバイスであってもよい。この場合、眼鏡型デバイス100は、ユーザ102の視界に対応する範囲を撮像している撮像画像を、常に非透過型のディスプレイに表示してよい。
FIG. 1 schematically shows an example of the
システム10は、制御サーバ300を備える。制御サーバ300は、クラウド上に実現されてよい。制御サーバ300は、1つの装置によって実現されてよい。制御サーバ300は、複数の装置によって実現されてもよい。
The
制御サーバ300は、眼鏡型デバイス100によるコンテンツの表示を制御してよい。制御サーバ300は、ネットワーク20を介して眼鏡型デバイス100と通信してよい。
The
ネットワーク20は、クラウドを含む。ネットワーク20はインターネットを含んでよい。ネットワーク20は、移動体通信ネットワークを含んでよい。移動体通信ネットワークは、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、5G(5th Generation)通信方式、6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。ネットワーク20は、Wi-Fi(登録商標)通信方式に対応していてよい。ネットワーク20には、Wi-Fiアクセスポイントを介してアクセス可能であってよい。ネットワーク20には、その他無線通信全般を利用してアクセス可能であってよい。
The
制御サーバ300は、ネットワーク20に有線接続されていても、無線接続されていてもよい。眼鏡型デバイス100は、移動体通信、Wi-Fi通信、その他無線通信全般によって、ネットワーク20に接続されてよい。
The
制御サーバ300は、例えば、眼鏡型デバイス100の撮像範囲情報を、ネットワーク20を介して眼鏡型デバイス100から受信し、眼鏡型デバイス100の撮像範囲に合わせて、眼鏡型デバイス100にコンテンツを送信して表示させる。なお、撮像範囲に合わせたコンテンツの表示は、眼鏡型デバイス100が主体となって実行してもよい。例えば、眼鏡型デバイス100は、撮像範囲情報又は眼鏡型デバイス100の位置情報を制御サーバ300に送信して、撮像範囲又は位置に対応するコンテンツを制御サーバ300から受信し、眼鏡型デバイス100の撮像範囲に合わせてコンテンツを表示する。また、例えば、眼鏡型デバイス100は、予め、各位置に対応するコンテンツを制御サーバ300から受信しておき、眼鏡型デバイス100の撮像範囲に合わせてコンテンツを表示する。また、眼鏡型デバイス100は、制御サーバ300からコンテンツを受信するのではなく、自らが格納しているコンテンツを、撮像範囲に合わせて表示してもよい。眼鏡型デバイス100を装着しているユーザ102は、現実空間にコンテンツが配置されているような体験をすることができる。
For example, the
眼鏡型デバイス100は、例えば、眼鏡型デバイス100の位置、向き、及び姿勢に基づいて、撮像範囲情報を生成する。眼鏡型デバイス100は、各種センサを備えてよく、各種センサを用いて、眼鏡型デバイス100の位置、向き、及び姿勢を特定してよい。
The spectacle-
眼鏡型デバイス100は、測位センサを備えてよい。眼鏡型デバイス100は、例えば、GPS(Global Positioning System)センサ等のGNSS(Global Naviagtion Satellite System)センサを備える。眼鏡型デバイス100は、加速度センサを備えてよい。眼鏡型デバイス100は、ジャイロセンサを備えてよい。眼鏡型デバイス100は、カメラを備えてよい。眼鏡型デバイス100は、LiDAR(Light Detection and Ranging)を備えてよい。眼鏡型デバイス100は、その他のセンサを備えてもよい。眼鏡型デバイス100は、これらを複合的に利用することによって、撮像範囲情報を生成してよい。
The spectacle-
図2は、眼鏡型デバイス100によるコンテンツ150の表示例を概略的に示す。眼鏡型デバイス100は、レンズ116に各種コンテンツ150を表示する。
FIG. 2 schematically shows a display example of the
コンテンツ150は、現実世界の特定のエリアや物体に対応付けて登録されたコンテンツを含んでよい。コンテンツの登録は、制御サーバ300を利用してサービスを提供するサービス提供者によって行われてよい。コンテンツの登録は、制御サーバ300が提供するサービスに登録しているサービス登録者によって行われてもよい。制御サーバ300が提供するサービスには、任意の者が登録可能であってよい。眼鏡型デバイス100は、撮像範囲に含まれるエリアや物体に対応付けて登録されたコンテンツを制御サーバ300から受信して、当該エリアや物体に対応するレンズ116上の位置にコンテンツを表示してよい。当該コンテンツは、眼鏡型デバイス100の位置、姿勢、向き等の変化に応じて、レンズ116上における位置が変化する。当該コンテンツを、動的表示コンテンツと記載する場合がある。
The
コンテンツ150は、眼鏡型デバイス100のレンズ116の予め定められた位置に固定的に表示されるコンテンツを含んでよい。このようなコンテンツを固定表示コンテンツと記載する場合がある。固定表示コンテンツの例として、時刻情報、日付情報、電波状況、メール通知情報、及び着信通知情報等が挙げられるが、これらに限らず、任意の情報が対象になり得る。
The
眼鏡型デバイス100を装着しているユーザ102は、コンテンツ150を閲覧することによって、現実世界に様々なコンテンツ150が配置されている状況を楽しんだり、各種情報を取得したりすることが可能になる。しかし、コンテンツ150が邪魔になる場合もあり得る。例えば、設定メニューを表示して、ユーザ102によるメニューの選択に応じてコンテンツ150を非表示にできるようにすることも考えられるが、その場合、迅速にコンテンツ150の表示のオンオフを切り替えることが難しく、ユーザ102が煩わしさを感じる可能性もある。
By browsing the
本実施形態に係る眼鏡型デバイス100は、装着者であるユーザ102の比較的簡単な動作によって、コンテンツ150の表示をオフにする機能を提供する。例えば、眼鏡型デバイス100は、眼鏡型デバイス100のフレームが持ち上げられたり、タップされたりしたことに応じて、コンテンツ150の表示をオフにする。これにより、ユーザ102がコンテンツ150の表示をオフにしたいと思ったときに、簡単に、かつ、迅速に表示をオフすることを可能にできる。
The spectacle-
図3は、眼鏡型デバイス100の構成の一例を概略的に示す。眼鏡型デバイス100は、リム112及びテンプル118を有するフレーム110を備える。眼鏡型デバイス100は、眼鏡型デバイス100における各種制御を実行する制御装置200を備える。
FIG. 3 schematically shows an example of the configuration of the spectacle-
図3における制御装置200の配置は一例であり、制御装置200は、フレーム110の他の位置に配置されてもよい。例えば、制御装置200は、フレーム110の外部に配置されてもよい。また、例えば、制御装置200は、テンプル118内に配置されてもよい。具体例として、制御装置200は、テンプル118の先端部、すなわち、モダンに配置されてもよい。制御装置200は、バッテリを備えてよい。制御装置200とバッテリは、別体として、フレーム110の別の位置に配置されてもよい。
The arrangement of the
眼鏡型デバイス100は、カメラ120を備えてよい。図3におけるカメラ120の配置は一例であり、カメラ120は、他の位置に配置されてもよい。
The spectacle-
眼鏡型デバイス100は、センサ122を備えてよい。センサ122は、眼鏡型デバイス100の周囲の環境を特定するためのセンサであってよい。センサ122は、LiDARを含んでよい。センサ122は、測距センサを含んでもよい。図3では、センサ122がブリッジ114に配置されている場合を例示しているが、図3におけるセンサ122の配置は一例であり、センサ122は、他の位置に配置されてもよい。
The spectacle-
眼鏡型デバイス100は、視線検出部124を備えてよい。視線検出部124は、眼鏡型デバイス100の装着者であるユーザ102の視線を検出する。視線検出部124は、例えば、ユーザ102の目を撮像して監視することによって、ユーザ102の視線を検出する。視線検出部124は、ユーザ102の瞬きを検出してよい。視線検出部124は、ユーザ102の右目及び左目のそれぞれが開いているか閉じているかを検出してよい。図3における視線検出部124の配置は一例であり、視線検出部124は、他の位置に配置されてもよい。
The spectacle-
眼鏡型デバイス100は、センサ126を備えてよい。センサ126は、眼鏡型デバイス100における、センサ126が設置された場所に対する接触を検知するセンサであってよい。センサ126は、圧力を検出可能であってもよい。センサ126は、例えば、静電センサであってよい。図3におけるセンサ126の配置は一例であり、眼鏡型デバイス100は、図3に示す位置とは異なる位置に接触センサ126を備えてもよい。また、眼鏡型デバイス100は、図3に示す例よりも多くの場所にセンサ126を備えてもよい。例えば、センサ126は、リム112の側面や底面等にセンサ126を備えてもよい。
The spectacle-
眼鏡型デバイス100は、マイク128を備えてよい。眼鏡型デバイス100は、眼鏡型デバイス100を装着しているユーザ102の声を受け付ける。図3におけるマイク128の配置は一例であり、マイク128は、他の位置に配置されてもよい。
The spectacle-
制御装置200は、測位センサを備えてよい。制御装置200は、加速度センサを備えてよい。制御装置200は、ジャイロセンサを備えてよい。制御装置200は、その他のセンサを備えてもよい。制御装置200は、レンズ116への表示機能を備えてよい。レンズ116は、眼鏡型デバイス100の表示部の一例であってよい。レンズ116は、透明又は半透明のディスプレイであってよく、制御装置200は、レンズ116に各種表示を実行させてよい。すなわち、眼鏡型デバイス100は、透明又は半透明のディスプレイ型のデバイスであってよい。また、制御装置200が、レンズ116に対して表示を投影する機能を有してもよい。すなわち、眼鏡型デバイス100は、投影型のデバイスであってよい。
The
図4は、制御装置200の機能構成の一例を概略的に示す。制御装置200は、格納部202、情報取得部204、サーバ通信部206、表示制御部208、及び停止制御部210を備える。
FIG. 4 schematically shows an example of the functional configuration of the
格納部202は、各種情報を格納する。格納部202は、例えば、時刻情報及び日付情報等を格納する。格納部202は、テキストデータ及び画像データ等の各種データを格納してよい。格納部202は、例えば、インターネットを介して受信した各種データを格納する。また、格納部202は、ネットワーク20を介して受信したメール及びメッセージなどのデータを格納する。
The
情報取得部204は、各種情報を取得する。情報取得部204は、取得した情報を格納部202に格納する。情報取得部204は、眼鏡型デバイス100が備える各種センサによって出力された情報を取得してよい。情報取得部204は、例えば、測位センサ、加速度センサ、ジャイロセンサ、カメラ、及びLiDARによって出力された情報を取得する。
The
情報取得部204は、格納部202に格納されている情報を用いて、各種情報を生成してよい。情報取得部204は、生成した情報を格納部202に格納する。情報取得部204は、例えば、眼鏡型デバイス100の撮像範囲を示す撮像範囲情報を生成する。撮像範囲情報は、眼鏡型デバイス100の位置、眼鏡型デバイス100の姿勢、眼鏡型デバイス100の向き、及びカメラの画角情報を含んでよい。
The
サーバ通信部206は、制御サーバ300と通信する。サーバ通信部206は、ネットワーク20を介して、制御サーバ300と通信してよい。サーバ通信部206は、例えば、格納部202に格納されている情報を制御サーバ300に送信する。
The
サーバ通信部206は、情報取得部204が各種センサから取得した情報を制御サーバ300に送信してよい。サーバ通信部206は、眼鏡型デバイス100の位置情報を定期的に制御サーバ300に送信してよい。制御サーバ300は、眼鏡型デバイス100から位置情報を定期的に受信することによって、眼鏡型デバイス100の位置を追跡可能であってよい。また、サーバ通信部206は、情報取得部204が生成した撮像範囲情報を制御サーバ300に送信してよい。
The
サーバ通信部206は、制御サーバ300から各種情報を受信してよい。サーバ通信部206は、受信した情報を格納部202に格納する。サーバ通信部206は、例えば、制御サーバ300に送信した撮像範囲情報に対応するコンテンツを制御サーバ300から受信する。サーバ通信部206は、例えば、撮像範囲情報によって示される撮像範囲に含まれるエリアに対応するコンテンツを、制御サーバ300から受信する。また、サーバ通信部206は、例えば、撮像範囲情報によって示される撮像範囲に含まれる物体に対応するコンテンツを、制御サーバ300から受信する。
The
表示制御部208は、レンズ116への表示を制御する。表示制御部208は、格納部202に格納されているコンテンツを、レンズ116に表示させてよい。
The
表示制御部208は、例えば、時刻情報、日付情報、テキストデータ、画像データ、メール、及びメッセージ等を、固定表示コンテンツとしてレンズ116に表示させる。表示制御部208は、例えば、ユーザ102からの指示に応じて、これらをレンズ116に表示させる。また、表示制御部208は、例えば、メールを受信したり、メッセージを受信したり、着信したりした場合に、これらをユーザ102に通知するための通知データを表示させる。
The
表示制御部208は、例えば、眼鏡型デバイス100の撮像範囲内のエリアに対応する動的表示コンテンツを、レンズ116に表示させる。表示制御部208は、動的表示コンテンツが、現実世界の特定の位置に固定されているような表示を提供すべく、眼鏡型デバイス100の位置、姿勢、及び向きの変化に応じて、レンズ116におけるコンテンツの表示位置を調整してよい。
The
表示制御部208は、例えば、眼鏡型デバイス100の撮像範囲内の物体に対応する動的表示コンテンツを、レンズ116に表示させる。表示制御部208は、動的表示コンテンツが、現実世界における当該物体の付近に固定されているような表示を提供すべく、眼鏡型デバイス100の位置、姿勢、及び向きの変化に応じて、レンズ116における動的表示コンテンツの表示位置を調整してよい。
The
停止制御部210は、表示制御部208によってレンズ116にコンテンツが表示されている間に、眼鏡型デバイス100の装着者であるユーザ102による予め定められた動作を検出したことに応じて、表示制御部208にコンテンツの表示を停止させる。停止制御部210は、動的表示コンテンツ及び固定表示コンテンツの両方について、表示制御部208によってレンズ116に表示されている間にユーザ102による予め定められた動作を検出したことに応じて、表示制御部208にコンテンツの表示を停止させてよい。また、停止制御部210は、動的表示コンテンツ及び固定表示コンテンツの両方のうち動的表示コンテンツのみについて、表示制御部208によってレンズ116に表示されている間にユーザ102による予め定められた動作を検出したことに応じて、表示制御部208にコンテンツの表示を停止させてもよい。停止制御部210は、格納部202に格納されている情報や、情報取得部204が取得した情報に基づいて、ユーザ102による予め定められた動作を検出してよい。
The
例えば、停止制御部210は、ユーザ102による眼鏡型デバイス100に対する予め定められた動作を検出したことに応じて、コンテンツの表示を停止させる。
For example, the
具体例として、停止制御部210は、ユーザ102によって眼鏡型デバイス100が持ち上げられたことに応じて、コンテンツの表示を停止させる。停止制御部210は、例えば、加速度センサ、ジャイロセンサ、及びセンサ126の出力情報に基づいて、ユーザ102によって眼鏡型デバイス100が持ち上げられたことを検出し得る。停止制御部210は、例えば、ユーザ102がブリッジ114又はリム112に触れている状態で、リム112が上方に傾けられた場合に、ユーザ102によって眼鏡型デバイス100が持ち上げられたと判定してよい。
As a specific example, the
また、具体例として、停止制御部210は、ユーザ102によって眼鏡型デバイス100のフレーム110がタップされたことに応じて、コンテンツの表示を停止させる。停止制御部210は、例えば、センサ126による出力情報に基づいて、ユーザ102によってフレーム110がタップされたことを検出し得る。停止制御部210は、例えば、フレーム110が予め定められた回数連続してタップされたことに応じて、コンテンツの表示を停止させる。また、停止制御部210は、例えば、フレーム110が長押しされたことに応じて、コンテンツの表示を停止させる。停止制御部210は、フレーム110が予め定められた時間以上触れられている場合に、長押しされたと判定してよい。また、停止制御部210は、例えば、フレーム110が強く押されたことに応じて、コンテンツの表示を停止させる。停止制御部210は、フレーム110が受ける圧力が予め定められた閾値より高い場合に、フレーム110が強く押されたと判定してよい。
Further, as a specific example, the
また、具体例として、停止制御部210は、ユーザ102の手が眼鏡型デバイス100のフレーム110に触れている間、コンテンツの表示を停止させる。停止制御部210は、例えば、センサ126による出力情報に基づいて、ユーザ102の手がフレーム110に触れているかを判定してよい。
Further, as a specific example, the
また、具体例として、停止制御部210は、ユーザ102が眼鏡型デバイス100のレンズ116を手で覆ったことに応じて、コンテンツの表示を停止させる。停止制御部210は、例えば、カメラ120及びセンサ122の少なくともいずれかの出力情報に基づいて、ユーザ102がレンズ116を手で覆ったことを検出してよい。停止制御部210は、ユーザ102がレンズ116を一瞬だけ手で覆ったことに応じて、コンテンツの表示を停止させてもよい。停止制御部210は、例えば、カメラ120及びセンサ122の少なくともいずれかの出力情報に基づいて、レンズ116が予め定められた時間よりも短い間、覆われたことを検出した場合に、コンテンツの表示を停止させる。
Further, as a specific example, the
また、具体例として、停止制御部210は、ユーザ102が、予め登録された、コンテンツの表示を停止させる音声コマンドを発声したことに応じて、コンテンツの表示を停止させる。停止制御部210は、例えば、マイク128によって取得されたユーザ102の音声を音声認識し、予め登録された音声コマンドと比較することによって、判定してよい。音声コマンドの例として、「非表示にして」がその一例として挙げられるが、これに限らず、任意の音声コマンドが登録され得る。
Further, as a specific example, the
例えば、停止制御部210は、ユーザ102による予め定められた目の動作を検出したことに応じて、コンテンツの表示を停止させる。
For example, the
具体例として、停止制御部210は、ユーザ102による予め定められた視線移動を検出したことに応じて、コンテンツの表示を停止させる。停止制御部210は、視線検出部124によって検出されたユーザ102の視線移動が、予め定められた視線移動と一致した場合に、コンテンツの表示を停止してよい。予め定められた視線移動として、視線を上下左右に動かすことがその一例として挙げられるが、これに限らず、任意の視線移動が登録され得る。
As a specific example, the
また、具体例として、停止制御部210は、ユーザ102による予め定められた瞬きを検出したことに応じて、コンテンツの表示を停止させる。停止制御部210は、視線検出部124によって検出されたユーザ102の瞬きが、予め定められた瞬きのパターンと一致した場合に、コンテンツの表示を停止してよい。瞬きのパターンとして、予め定められた時間内の連続した2回の瞬きがその一例として挙げられるが、これに限らず、任意の瞬きのパターンが登録され得る。例えば、3回連続した瞬きや、予め定められた時間間隔の瞬き等が、その例として挙げられる。
Further, as a specific example, the
また、具体例として、停止制御部210は、ユーザ102が片目を閉じたことに応じてコンテンツの表示を停止させる。停止制御部210は、視線検出部124によって、ユーザ102が片目を閉じていることが検出された場合に、コンテンツの表示を停止してよい。停止制御部210は、ユーザ102が、片目だけ閉じている状態を予め定められた時間以上継続させた場合に、コンテンツの表示を停止するようにしてもよい。
Further, as a specific example, the
また、具体例として、停止制御部210は、ユーザ102が予め定められた時間、両目を閉じたことに応じて、コンテンツの表示を停止させる。停止制御部210は、視線検出部124によって、ユーザ102が予め定められた時間、両目を閉じたことが検出された場合に、コンテンツの表示を停止させてよい。
Further, as a specific example, the
また、具体例として、停止制御部210は、ユーザ102の視線が、レンズ116に表示されたコンテンツの非表示指示を受け付けるためのオブジェクトに予め定められた時間以上継続して向けられたことに応じて、コンテンツの表示を停止させる。当該オブジェクトとして、非表示と記載されたボタンがその一例として挙げられるが、これに限らず、任意のオブジェクトを用いられ得る。この場合、表示制御部208が、レンズ116にコンテンツを表示させている間、レンズ116に当該オブジェクトを表示させる。なお、ユーザ102の視線が非表示ボタンに予め定められた時間以上継続して向けられたことに応じてコンテンツの表示が停止された場合に、表示制御部208は、非表示ボタンに代えて、表示ボタンをレンズ116に表示させてもよい。そして、停止制御部210は、ユーザ102の視線が表示ボタンに予め定められた時間以上継続して向けられたことに応じて、コンテンツの表示を再開させてもよい。
Further, as a specific example, the
停止制御部210は、表示制御部208によってレンズ116にコンテンツが表示されている間に、ユーザ102による予め定められた複数種類の動作を検出したことに応じて、コンテンツの表示を停止させてもよい。当該複数種類の動作は、2種類の動作であってよい。また、当該複数種類の動作は、3種類以上の動作であってもよい。これにより、1つの種類の動作を検出したことに応じてコンテンツの表示を停止させる場合と比較して、誤検出の可能性を低減でき、ユーザ102がコンテンツの表示を停止させようとしていないにもかかわらず、コンテンツが非表示になってしまう可能性を低減することができる。
Even if the
停止制御部210は、例えば、ユーザ102による眼鏡型デバイス100に対する予め定められた複数種類の動作を検出したことに応じて、コンテンツの表示を停止させる。停止制御部210は、ユーザ102による、眼鏡型デバイス100を持ち上げる動作、フレーム110をタップする動作、フレーム110に触れる動作、レンズ116を手で覆う動作、予め登録された音声コマンドを発声する動作のうち、任意の組み合わせを検出したことに応じて、コンテンツの表示を停止させてよい。具体例として、停止制御部210は、ユーザ102による、眼鏡型デバイス100のフレーム110をタップしてから、眼鏡型デバイス100を持ち上げる動作を検出したことに応じて、コンテンツの表示を停止させる。また、具体例として、停止制御部210は、ユーザ102による、予め登録された音声コマンドを発声しながら、眼鏡型デバイス100を持ち上げる動作を検出したことに応じて、コンテンツの表示を停止させる。
The
また、停止制御部210は、例えば、ユーザ102による予め定められた複数種類の目の動作を検出したことに応じて、コンテンツの表示を停止させる。停止制御部210は、ユーザ102による、予め定められた視線移動の動作、予め定められた瞬きの動作、片目を閉じる動作、予め定められた時間、両目を閉じる動作、及びレンズ116に表示されたオブジェクトに予め定められた時間以上継続して視線を向ける動作のうち、任意の組み合わせを検出したことに応じて、コンテンツの表示を停止させてよい。
Further, the
停止制御部210は、例えば、ユーザ102による眼鏡型デバイス100に対する予め定められた動作と、ユーザ102による予め定められた目の動作とを検出したことに応じて、コンテンツの表示を停止させる。停止制御部210は、ユーザ102による、眼鏡型デバイス100を持ち上げる動作、フレーム110をタップする動作、フレーム110に触れる動作、レンズ116を手で覆う動作、及び予め登録された音声コマンドを発声する動作のうちの少なくとも1つと、ユーザ102による、予め定められた視線移動の動作、予め定められた瞬きの動作、片目を閉じる動作、予め定められた時間、両目を閉じる動作、レンズ116に表示されたオブジェクトに予め定められた時間以上継続して視線を向ける動作のうちの少なくとも1つとを検出したことに応じて、コンテンツの表示を停止させる。具体例として、停止制御部210は、ユーザ102がフレーム110に触れている間に、ユーザ102による予め定められた視線移動を検出したことに応じて、コンテンツの表示を停止させる。
The
停止制御部210は、ユーザ102による予め定められた動作を検出したことに応じてコンテンツの表示を停止させている間に、ユーザ102による当該予め定められた動作を検出したことに応じて、コンテンツの表示を再開させてよい。コンテンツの表示を停止させる動作と同じ動作によってコンテンツの表示を再開可能とすることによって、ユーザ102によってわかりやすい操作性を提供できる。
While the
停止制御部210は、例えば、ユーザ102による眼鏡型デバイス100に対する予め定められた動作を検出したことに応じてコンテンツの表示を停止させている間に、ユーザ102による眼鏡型デバイス100に対する当該予め定められた動作を検出したことに応じて、コンテンツの表示を再開させる。ユーザ102による眼鏡型デバイス100に対する動作の例としては、上述したように、眼鏡型デバイス100を持ち上げる動作、フレーム110をタップする動作、フレーム110に触れる動作、レンズ116を手で覆う動作、及び予め登録された音声コマンドを発声する動作が挙げられる。具体例として、停止制御部210は、ユーザ102によって眼鏡型デバイス100が持ち上げられたことに応じてコンテンツの表示を停止させている間に、ユーザ102によって眼鏡型デバイス100が再度持ち上げられたことに応じて、コンテンツの表示を再開させる。
For example, the
また、停止制御部210は、例えば、ユーザ102による予め定められた目の動作を検出したことに応じてコンテンツの表示を停止させている間に、ユーザ102による当該予め定められた目の動作を検出したことに応じて、コンテンツの表示を再開させる。ユーザ102による目の動作の例としては、上述したように、予め定められた視線移動の動作、予め定められた瞬きの動作、片目を閉じる動作、予め定められた時間、両目を閉じる動作、及びレンズ116に表示されたオブジェクトに予め定められた時間以上継続して視線を向ける動作が挙げられる。具体例として、停止制御部210は、ユーザ102による予め定められた瞬きを検出したことに応じてコンテンツの表示を停止させている間にユーザ102による当該予め定められた瞬きを検出したことに応じて、コンテンツの表示を再開させる。また、具体例として、停止制御部210は、ユーザ102が予め定められた時間、両目を閉じたことに応じてコンテンツの表示を停止させている間に、ユーザ102が再度、予め定められた時間、両目を閉じたことに応じて、コンテンツの表示を再開させる。
Further, the
停止制御部210は、ユーザ102による第1の種類の動作を検出したことに応じてコンテンツの表示を停止させている間に、ユーザ102による第1の種類の動作とは異なる第2の種類の動作を検出したことに応じて、コンテンツの表示を再開させてよい。停止制御部210は、例えば、ユーザ102による眼鏡型デバイス100に対する第1の種類の動作を検出したことに応じてコンテンツの表示を停止させている間に、ユーザ102による眼鏡型デバイス100に対する第2の種類の動作を検出したことに応じて、コンテンツの表示を再開させる。具体例として、停止制御部210は、ユーザ102が上から下に向けて手を移動させることによってレンズ116を手で覆ったことに応じてコンテンツの表示を停止させ、ユーザ102が下から上に向けて手を移動させることによってレンズ116を手で覆ったことに応じてコンテンツの表示を再開させる。また、停止制御部210は、例えば、ユーザ102による目の第1の種類の動作を検出したことに応じてコンテンツの表示を停止させている間に、ユーザ102による目の第2の種類の動作を検出したことに応じて、コンテンツの表示を再開させる。また、停止制御部210は、例えば、ユーザ102による眼鏡型デバイス100に対する第1の種類の動作を検出したことに応じてコンテンツの表示を停止させている間に、ユーザ102による目の第2の種類の動作を検出したことに応じて、コンテンツの表示を再開させる。
While the
停止制御部210は、表示制御部208によってレンズ116にコンテンツが表示されているときに、ユーザ102による予め定められた動作を検出したことに応じて、コンテンツの表示を停止させ、当該動作が解除されたことに応じて、コンテンツの表示を再開させてもよい。例えば、停止制御部210は、ユーザ102の手が眼鏡型デバイス100のフレーム110に触れている間、コンテンツの表示を停止させ、ユーザ102の手がフレーム110から離れたことに応じて、コンテンツの表示を再開させる。また、例えば、停止制御部210は、ユーザ102が片目を閉じている間、コンテンツの表示を停止させ、ユーザ102が閉じている片目を開いたことに応じて、コンテンツの表示を再開させる。
When the content is displayed on the
図1から図4を用いて説明した実施形態では、眼鏡型デバイス100のユーザ102による予め定められた動作を検出したことに応じてコンテンツの表示を停止させる機能を眼鏡型デバイス100が有する場合を例に挙げて説明したが、これに限らず、制御サーバ300が備えてもよい。制御サーバ300は、制御装置の一例であってよい。
In the embodiment described with reference to FIGS. 1 to 4, the case where the spectacle-
図5は、制御サーバ300の機能構成の一例を概略的に示す。制御サーバ300は、格納部302、情報取得部304、表示制御部308、及び停止制御部310を備える。
FIG. 5 schematically shows an example of the functional configuration of the
格納部302は、各種情報を格納する。格納部302は、眼鏡型デバイス100に配信するコンテンツを格納してよい。格納部302は、現実世界の各エリアに対応付けて登録されたコンテンツを格納してよい。
The
情報取得部304は、各種情報を取得する。情報取得部304は、眼鏡型デバイス100から各種情報を受信してよい。情報取得部304は、例えば、眼鏡型デバイス100から眼鏡型デバイス100の撮像範囲情報を受信する。情報取得部304は、例えば、眼鏡型デバイス100から、眼鏡型デバイス100が備える各種センサによって出力された情報を受信してよい。情報取得部304は、受信した情報を格納部302に格納する。
The
情報取得部304は、格納部302に格納されている情報を用いて、各種情報を生成してよい。情報取得部304は、生成した情報を格納部302に格納する。情報取得部204は、例えば、眼鏡型デバイス100の撮像範囲を示す撮像範囲情報を生成する。
The
表示制御部308は、眼鏡型デバイス100によるレンズ116へのコンテンツの表示を制御する。表示制御部308は、格納部302に格納されているコンテンツを、眼鏡型デバイス100に送信して、レンズ116に表示させてよい。表示制御部308は、表示制御部208と同様に、眼鏡型デバイス100のレンズ116に、固定表示コンテンツ及び動的表示コンテンツを表示させてよい。
The
停止制御部310は、表示制御部308によってレンズ116にコンテンツが表示されている間に、眼鏡型デバイス100の装着者であるユーザ102による予め定められた動作を検出したことに応じて、表示制御部308にコンテンツの表示を停止させる。停止制御部310は、格納部302に格納されている情報に基づいて、ユーザ102による予め定められた動作を検出してよい。
The
停止制御部310は、停止制御部210と同様に、ユーザ102による眼鏡型デバイス100に対する予め定められた動作を検出したことに応じて、コンテンツの表示を停止させてよい。また、停止制御部310は、停止制御部210と同様に、ユーザ102による予め定められた目の動作を検出したことに応じて、コンテンツの表示を停止させてよい。
Similar to the
停止制御部310は、停止制御部210と同様に、表示制御部308によってレンズ116にコンテンツが表示されている間に、ユーザ102による予め定められた複数種類の動作を検出したことに応じて、コンテンツの表示を停止させてもよい。停止制御部310は、停止制御部210と同様に、ユーザ102による予め定められた動作を検出したことに応じてコンテンツの表示を停止させている間に、ユーザ102による当該予め定められた動作を検出したことに応じて、コンテンツの表示を再開させてよい。停止制御部310は、停止制御部210と同様に、ユーザ102による第1の種類の動作を検出したことに応じてコンテンツの表示を停止させている間に、ユーザ102による第1の種類の動作とは異なる第2の種類の動作を検出したことに応じて、コンテンツの表示を再開させてよい。停止制御部310は、停止制御部210と同様に、表示制御部308によってレンズ116にコンテンツが表示されているときに、ユーザ102による予め定められた動作を検出したことに応じて、コンテンツの表示を停止させ、当該動作が解除されたことに応じて、コンテンツの表示を再開させてもよい。
Similar to the
図6は、制御装置200又は制御サーバ300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
FIG. 6 schematically shows an example of a hardware configuration of a
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボード又はタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
The
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
The
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
The
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
The
プログラムは、ICカードのようなコンピュータ可読記憶媒体によって提供されてよい。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
The program may be provided by a computer-readable storage medium such as an IC card. The program is read from a computer-readable storage medium, installed in a
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is executed between the
また、CPU1212は、記憶装置1224、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
Further, the
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information such as various types of programs, data, tables, and databases may be stored in recording media and processed. The
上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
The program or software module described above may be stored on a
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams of this embodiment may represent the stage of the process in which the operation is performed or the "part" of the device responsible for performing the operation. Specific steps and "parts" are supplied with a dedicated circuit, a programmable circuit supplied with computer-readable instructions stored on a computer-readable storage medium, and / or with computer-readable instructions stored on a computer-readable storage medium. It may be implemented by the processor. Dedicated circuits may include digital and / or analog hardware circuits, and may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits include logical ANDs, logical sums, exclusive logical sums, negative logical products, negative logical sums, and other logical operations, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like. , Flip-flops, registers, and reconfigurable hardware circuits, including memory elements.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 The computer readable storage medium may include any tangible device capable of storing instructions executed by the appropriate device, so that the computer readable storage medium having the instructions stored therein may be in a flow chart or block diagram. It will be equipped with a product that contains instructions that can be executed to create means for performing the specified operation. Examples of the computer-readable storage medium may include an electronic storage medium, a magnetic storage medium, an optical storage medium, an electromagnetic storage medium, a semiconductor storage medium, and the like. More specific examples of computer-readable storage media include floppy (registered trademark) disks, diskettes, hard disks, random access memory (RAM), read-only memory (ROM), and erasable programmable read-only memory (EPROM or flash memory). , Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-ray® Disc, Memory Stick , Integrated circuit cards and the like may be included.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 Computer-readable instructions include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcodes, firmware instructions, state-setting data, or Smalltalk®, JAVA®, C ++, etc. Object-oriented programming languages, and either source code or object code written in any combination of one or more programming languages, including traditional procedural programming languages such as the "C" programming language or similar programming languages. May include.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer-readable instructions are used to generate means for a general purpose computer, a special purpose computer, or the processor of another programmable data processing device, or a programmable circuit, to perform an operation specified in a flowchart or block diagram. General purpose computers, special purpose computers, or other programmable data processing locally or via a local area network (LAN), a wide area network (WAN) such as the Internet, etc. to execute such computer-readable instructions. It may be provided to the processor of the device or a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operation, procedure, step, and step in the apparatus, system, program, and method shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.
10 システム、20 ネットワーク、100 眼鏡型デバイス、102 ユーザ、110 フレーム、112 リム、114 ブリッジ、116 レンズ、118 テンプル、120 カメラ、122 センサ、124 視線検出部、126 センサ、128 マイク、150 コンテンツ、200 制御装置、202 格納部、204 情報取得部、206 サーバ通信部、208 表示制御部、210 停止制御部、300 制御サーバ、302 格納部、304 情報取得部、308 表示制御部、310 停止制御部、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 10 systems, 20 networks, 100 eyeglass devices, 102 users, 110 frames, 112 rims, 114 bridges, 116 lenses, 118 temples, 120 cameras, 122 sensors, 124 line-of-sight detectors, 126 sensors, 128 microphones, 150 content, 200 Control device, 202 storage unit, 204 information acquisition unit, 206 server communication unit, 208 display control unit, 210 stop control unit, 300 control server, 302 storage unit, 304 information acquisition unit, 308 display control unit, 310 stop control unit, 1200 Computer, 1210 Host Controller, 1212 CPU, 1214 RAM, 1216 Graphic Controller, 1218 Display Device, 1220 I / O Controller, 1222 Communication Interface, 1224 Storage Device, 1230 ROM, 1240 I / O Chip
Claims (9)
前記表示制御部によって前記レンズに前記コンテンツが表示されている間に前記眼鏡型デバイスの装着者による予め定められた動作を検出したことに応じて、前記コンテンツの表示を停止させる停止制御部と
を備え、
前記停止制御部は、前記装着者が前記眼鏡型デバイスのレンズを手で覆ったことに応じて、前記コンテンツの表示を停止させる、
制御装置。 A display control unit that displays content on the lens of a glasses-type device,
A stop control unit that stops the display of the content in response to the detection of a predetermined operation by the wearer of the spectacle-type device while the content is displayed on the lens by the display control unit. Prepare ,
The stop control unit stops the display of the content in response to the wearer covering the lens of the spectacle-type device with his / her hand.
Control device.
前記表示制御部によって前記レンズに前記コンテンツが表示されている間に前記眼鏡型デバイスの装着者による予め定められた動作を検出したことに応じて、前記コンテンツの表示を停止させる停止制御部とA stop control unit that stops the display of the content in response to the detection of a predetermined operation by the wearer of the spectacle-type device while the content is displayed on the lens by the display control unit.
を備え、Equipped with
前記停止制御部は、前記装着者の手が前記眼鏡型デバイスのフレームに触れている間に、前記装着者による予め定められた視線移動を検出したことに応じて、前記コンテンツの表示を停止させる、The stop control unit stops the display of the content in response to detecting a predetermined line-of-sight movement by the wearer while the wearer's hand is touching the frame of the spectacle-type device. ,
制御装置。Control device.
眼鏡型デバイスのレンズにコンテンツを表示させる制御段階と、
前記レンズに前記コンテンツが表示されている間に前記眼鏡型デバイスの装着者による予め定められた動作を検出したことに応じて、前記コンテンツの表示を停止させる停止制御段階と
を備え、
前記停止制御段階は、前記装着者が前記眼鏡型デバイスのレンズを手で覆ったことに応じて、前記コンテンツの表示を停止させる、
制御方法。 A control method performed by a computer
The control stage to display the content on the lens of the eyeglass-type device,
It is provided with a stop control step for stopping the display of the content in response to detecting a predetermined operation by the wearer of the spectacle-type device while the content is displayed on the lens .
The stop control step stops the display of the content in response to the wearer covering the lens of the spectacle-type device with his / her hand.
Control method.
眼鏡型デバイスのレンズにコンテンツを表示させる制御段階と、The control stage to display the content on the lens of the eyeglass-type device,
前記レンズに前記コンテンツが表示されている間に前記眼鏡型デバイスの装着者による予め定められた動作を検出したことに応じて、前記コンテンツの表示を停止させる停止制御段階とA stop control step for stopping the display of the content in response to detecting a predetermined operation by the wearer of the spectacle-type device while the content is displayed on the lens.
を備え、Equipped with
前記停止制御段階は、前記装着者の手が前記眼鏡型デバイスのフレームに触れている間に、前記装着者による予め定められた視線移動を検出したことに応じて、前記コンテンツの表示を停止させる、The stop control step stops the display of the content in response to detecting a predetermined line-of-sight movement by the wearer while the wearer's hand is touching the frame of the spectacle-type device. ,
制御方法。Control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020181643A JP7039672B1 (en) | 2020-10-29 | 2020-10-29 | Controls, programs, and control methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020181643A JP7039672B1 (en) | 2020-10-29 | 2020-10-29 | Controls, programs, and control methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7039672B1 true JP7039672B1 (en) | 2022-03-22 |
JP2022072285A JP2022072285A (en) | 2022-05-17 |
Family
ID=81214257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020181643A Active JP7039672B1 (en) | 2020-10-29 | 2020-10-29 | Controls, programs, and control methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7039672B1 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005172851A (en) | 2003-12-05 | 2005-06-30 | Sony Corp | Image display apparatus |
WO2015170520A1 (en) | 2014-05-09 | 2015-11-12 | ソニー株式会社 | Information processing system and information processing method |
JP2017085461A (en) | 2015-10-30 | 2017-05-18 | 株式会社日本総合研究所 | Color conversion device, color conversion system and program |
JP2017120488A (en) | 2015-12-28 | 2017-07-06 | セイコーエプソン株式会社 | Display device, display system, control method of display device, and program |
JP2017220032A (en) | 2016-06-07 | 2017-12-14 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus, information processing method, and computer program |
JP2018120331A (en) | 2017-01-24 | 2018-08-02 | 株式会社ブループリント | Program and display device |
JP2019074917A (en) | 2017-10-16 | 2019-05-16 | ジャパン・イーエム・ソリューションズ株式会社 | Display system, operation terminal, head mounted display, display control program, and control method |
WO2020241189A1 (en) | 2019-05-30 | 2020-12-03 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2021182124A1 (en) | 2020-03-10 | 2021-09-16 | ソニーグループ株式会社 | Information processing device and information processing method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11161190A (en) * | 1997-11-25 | 1999-06-18 | Seiko Epson Corp | Head mounted display device |
KR102242703B1 (en) * | 2018-10-24 | 2021-04-21 | 주식회사 알파서클 | A smart user equipment connected to a head mounted display and control method therefor |
-
2020
- 2020-10-29 JP JP2020181643A patent/JP7039672B1/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005172851A (en) | 2003-12-05 | 2005-06-30 | Sony Corp | Image display apparatus |
WO2015170520A1 (en) | 2014-05-09 | 2015-11-12 | ソニー株式会社 | Information processing system and information processing method |
JP2017085461A (en) | 2015-10-30 | 2017-05-18 | 株式会社日本総合研究所 | Color conversion device, color conversion system and program |
JP2017120488A (en) | 2015-12-28 | 2017-07-06 | セイコーエプソン株式会社 | Display device, display system, control method of display device, and program |
JP2017220032A (en) | 2016-06-07 | 2017-12-14 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus, information processing method, and computer program |
JP2018120331A (en) | 2017-01-24 | 2018-08-02 | 株式会社ブループリント | Program and display device |
JP2019074917A (en) | 2017-10-16 | 2019-05-16 | ジャパン・イーエム・ソリューションズ株式会社 | Display system, operation terminal, head mounted display, display control program, and control method |
WO2020241189A1 (en) | 2019-05-30 | 2020-12-03 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2021182124A1 (en) | 2020-03-10 | 2021-09-16 | ソニーグループ株式会社 | Information processing device and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2022072285A (en) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11366516B2 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
US11017257B2 (en) | Information processing device, information processing method, and program | |
US11803233B2 (en) | IMU for touch detection | |
KR20170005406A (en) | Information processing system and information processing method | |
US20230049339A1 (en) | Low power machine learning using real-time captured regions of interest | |
JP7039672B1 (en) | Controls, programs, and control methods | |
US20230086766A1 (en) | Attention tracking to augment focus transitions | |
US10409464B2 (en) | Providing a context related view with a wearable apparatus | |
JP7174785B2 (en) | Control device, program, and control method | |
CN110291495B (en) | Information processing system, information processing method, and program | |
JP7171689B2 (en) | Management device, program, system, and management method | |
JP7139395B2 (en) | Controllers, programs and systems | |
JP7187520B2 (en) | Glasses-type device, management server and program | |
JP7274451B2 (en) | System, management device, program, and management method | |
JP7133005B2 (en) | Glasses-type device, program, and control method | |
JP7194158B2 (en) | Information processing device and program | |
US20240103635A1 (en) | Suppression of Hand Gestures upon Detection of Peripheral Events on a Peripheral Device | |
JP2022102681A (en) | Spectacle-type device, program, and control method | |
JP2022113031A (en) | Control device, program, system, and control method | |
JP2022072331A (en) | Control apparatus, program, and control method | |
CN117762242A (en) | Suppression of hand gestures upon detection of a peripheral event on a peripheral device | |
WO2023019247A1 (en) | Low power machine learning using real-time captured regions of interest | |
JP2022038495A (en) | Display control device, program, and system | |
CN116909385A (en) | Hand engagement region |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7039672 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |