JP2021192178A - Device, control method, and program - Google Patents
Device, control method, and program Download PDFInfo
- Publication number
- JP2021192178A JP2021192178A JP2020098692A JP2020098692A JP2021192178A JP 2021192178 A JP2021192178 A JP 2021192178A JP 2020098692 A JP2020098692 A JP 2020098692A JP 2020098692 A JP2020098692 A JP 2020098692A JP 2021192178 A JP2021192178 A JP 2021192178A
- Authority
- JP
- Japan
- Prior art keywords
- display
- user
- wearable device
- displayed
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
Abstract
Description
本開示は、デバイス、制御方法及びプログラムに関する。 The present disclosure relates to devices, control methods and programs.
腕に装着する形態のウェアラブルデバイスは持ち運びの携帯性、使用時、又は、通知を着信したとき等に機能へのアクセス性において、スマートフォン等の携帯デバイスに対してメリットがある。今日、ウェアラブルデバイスは、スマートフォンを代替するまでには至っていない。 Wearable devices that are worn on the wrist have advantages over mobile devices such as smartphones in terms of portability, accessibility to functions when used, or when a notification is received. Today, wearable devices have not yet replaced smartphones.
この要因の1つとして、ウェアラブルデバイスの特性に最適な入出力インタフェースが実現されてないことがあげられる。現状、ウェアラブルデバイスには、スマートフォン型の入出力デバイスが広く採用されている。スマートフォン等の携帯端末は、広いディスプレイの特性を生かして様々なグラフィカルなコンテンツを出力するとともに、コンテンツへの直接のジェスチャ入力を受け付けることにより直感的な入出力インタフェースを実現している。一方で、ウェアラブルデバイスは、その表示領域が狭いことが特性の1つとしてあげられる。このため、スマートフォン型の入出力インタフェースをそのまま適用することにより不整合が発生する。 One of the reasons for this is that the input / output interface that is optimal for the characteristics of the wearable device has not been realized. Currently, smartphone-type input / output devices are widely used as wearable devices. Mobile terminals such as smartphones output various graphical contents by taking advantage of the characteristics of a wide display, and realize an intuitive input / output interface by accepting direct gesture input to the contents. On the other hand, one of the characteristics of wearable devices is that their display area is narrow. Therefore, inconsistency occurs by applying the smartphone type input / output interface as it is.
この不整合は、出力と入力との双方の観点からいくつか問題がある。出力の観点においては、一度に表示できるコンテンツが領域の狭さから必然的に少なくなり、狭い範囲での最大限の情報量を表示するためにコンテンツが小さく高密度となり視認しづらくなる点があげられる。入力の観点においては、小さく高密度なコンテンツに対して指先で触る位置の細かい制御が間違えやすく、また、操作が煩雑になる点があげられる。さらに、ジェスチャ入力時の指でコンテンツ自体が隠されて見えなくなる、隠れることにより触る位置の間違えが発生しやすくなる点は、スマートフォン型の端末についてもいえる点ではあるが、ウェアラブルデバイスでは、その影響も大きくなる。 This inconsistency has some problems in terms of both output and input. From the viewpoint of output, the content that can be displayed at one time is inevitably reduced due to the narrow area, and the content is small and dense in order to display the maximum amount of information in a narrow range, making it difficult to see. Be done. From the viewpoint of input, it is easy to make a mistake in finely controlling the position of touching a small and high-density content with a fingertip, and the operation becomes complicated. Furthermore, the fact that the content itself is hidden and invisible by the finger when inputting gestures, and that it is easy to make a mistake in the touching position by hiding is the same for smartphone-type terminals, but for wearable devices, the effect is that. Will also grow.
そこで、本開示では、デバイスの特性に適した入出力インタフェースを有するウェアラブルデバイスを提供する。 Therefore, the present disclosure provides a wearable device having an input / output interface suitable for the characteristics of the device.
一実施形態によれば、デバイスは、処理回路と、第1ディスプレイと、を備える。処理回路は、仮想的な第2ディスプレイを設定し、第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、第2ディスプレイに対する第1ディスプレイの位置及び姿勢に基づいて、第1ディスプレイを介して表示する。処理回路は、例えば、CPU等の処理回路であってもよいし、ASIC等の処理回路であってもよいし、この他のデジタル又はアナログな回路で処理を行う回路であってもよい。 According to one embodiment, the device comprises a processing circuit and a first display. The processing circuit sets a virtual second display, and a part or all of the video signal virtually projected on the second display is first based on the position and orientation of the first display with respect to the second display. Show through the display. The processing circuit may be, for example, a processing circuit such as a CPU, a processing circuit such as an ASIC, or a circuit that performs processing with another digital or analog circuit.
デバイスは、センサ、をさらに備えてもよい。処理回路は、このセンサの感知情報に基づいて、第1ディスプレイに第2ディスプレイに仮想的に投影される映像信号の一部又は全部を表示してもよい。 The device may further include a sensor. The processing circuit may display a part or all of the video signal virtually projected on the second display on the first display based on the sensed information of this sensor.
センサは、慣性センサであってもよい。処理回路は、この慣性センサにより、所定姿勢になったことを感知して、第1ディスプレイの表示を開始してもよい。慣性センサを備えることにより、デバイスの動きを取得することができる。 The sensor may be an inertial sensor. The processing circuit may detect that the predetermined posture is reached by the inertial sensor and start displaying the first display. By providing the inertia sensor, the movement of the device can be acquired.
処理回路は、慣性センサから所定ジェスチャが入力されたことを感知して、第1ディスプレイの表示を開始してもよい。 The processing circuit may detect that a predetermined gesture has been input from the inertial sensor and start displaying the first display.
センサは、その1つとしてカメラを備えていてもよい。カメラを備えることにより、周囲の環境を映像情報として取得することができる。 The sensor may be equipped with a camera as one of them. By providing a camera, the surrounding environment can be acquired as video information.
処理回路は、カメラにより取得した情報に基づいて、ユーザの顔又はユーザの視線を認識して、第1ディスプレイに第2ディスプレイの一部又は全部の領域に表示される内容を表示してもよい。このように、人間の顔を検知して処理を実行したり、又は、特定の人物の顔を認識して処理を実行したりすることができる。 The processing circuit may recognize the user's face or the user's line of sight based on the information acquired by the camera, and display the contents displayed on a part or all of the area of the second display on the first display. .. In this way, it is possible to detect a human face and execute the process, or to recognize the face of a specific person and execute the process.
センサは、第1ディスプレイに付属するタッチパネルであってもよい。タッチパネルではなく、ディスプレイと別の箇所にタッチセンサを備えていてもよい。 The sensor may be a touch panel attached to the first display. A touch sensor may be provided in a place different from the display instead of the touch panel.
処理回路は、センサにより取得されたジェスチャに基づいて、所定処理を実行してもよい。種々のジェスチャ入力を可能とすることにより、例えば、デバイスを装着している場合に、簡易な動きにより、所望の処理を実行することができる。 The processing circuit may execute a predetermined processing based on the gesture acquired by the sensor. By enabling various gesture inputs, for example, when a device is attached, a desired process can be executed by a simple movement.
センサが感知したジェスチャ情報に基づいて、第1ディスプレイの表示を開始してもよい。すなわち、スタンバイの状態から、所定のジェスチャに基づいて、画面の表示を介することもできる。 The display of the first display may be started based on the gesture information sensed by the sensor. That is, it is also possible to display the screen from the standby state based on a predetermined gesture.
センサが感知したジェスチャ情報に基づいて、第1ディスプレイが表示する第2ディスプレイの領域又は姿勢を変更してもよい。このように、任意のジェスチャ入力により、第1ディスプレイに表示する第2ディスプレイの領域等を変更することもできる。 The area or posture of the second display displayed by the first display may be changed based on the gesture information sensed by the sensor. In this way, the area of the second display displayed on the first display can be changed by arbitrary gesture input.
センサが感知したジェスチャを、第1ディスプレイに表示してもよい。ジェスチャを表示することにより、ユーザは、自らが行ったジェスチャが確実に入力されたか否かを判断することができる。 The gesture sensed by the sensor may be displayed on the first display. By displaying the gesture, the user can determine whether or not the gesture performed by the user is surely input.
センサが感知したジェスチャにアバターを付与して第1ディスプレイに表示してもよい。例えば、ユーザが好きなキャラクタ等のアバターに変更してもよいし、第1ディスプレイに表示されている第2ディスプレイの映像等が邪魔されないようなアバターに変更してもよい。 An avatar may be attached to the gesture detected by the sensor and displayed on the first display. For example, the avatar may be changed to an avatar such as a character that the user likes, or the avatar may be changed so that the image of the second display displayed on the first display is not disturbed.
ジェスチャは、第1ディスプレイに対するジェスチャであってもよい。例えば、第1ディスプレイはタッチパネルを備え、当該第1ディスプレイに対してジェスチャ入力をしてもよい。 The gesture may be a gesture for the first display. For example, the first display may be provided with a touch panel, and gesture input may be made to the first display.
ジェスチャは、第2ディスプレイに対するジェスチャであってもよい。例えば、デバイスは、カメラ、測距センサ等のセンサを備え、仮想ディスプレイのある領域にユーザが仮想的に接触して、その仮想的な接触状態においてジェスチャを入力可能としてもよい。例えば、第2ディスプレイ上に所定のスワイプ動作をする等を、ジェスチャ入力として認識してもよい。 The gesture may be a gesture for the second display. For example, the device may include sensors such as a camera and a distance measuring sensor so that a user can virtually contact an area of a virtual display and input a gesture in the virtual contact state. For example, a predetermined swipe operation on the second display may be recognized as a gesture input.
処理回路は、ジェスチャに基づいて、第1ディスプレイに対する第2ディスプレイの位置を変更してもよい。このように、第1ディスプレイの位置を固定した状態で、第2ディスプレイの位置が変更されてもよい。 The processing circuit may change the position of the second display with respect to the first display based on the gesture. In this way, the position of the second display may be changed while the position of the first display is fixed.
ジェスチャに対するフィードバック処理を実行する、フィードバック処理部、をさらに備えてもよい。上記のように、第2ディスプレイに対してジェスチャ入力をする場合、ユーザは、空間内の仮想のディスプレイと接触することとなる。この場合、ユーザは、仮想ディスプレイに接触しているか否かを感知することができない。そこで、ユーザが仮想ディスプレイに接触している場合に、フィードバック処理をユーザに対して行ってもよい。 A feedback processing unit, which executes feedback processing for gestures, may be further provided. As described above, when the gesture input is made to the second display, the user comes into contact with the virtual display in the space. In this case, the user cannot detect whether or not the user is in contact with the virtual display. Therefore, when the user is in contact with the virtual display, the feedback process may be performed on the user.
フィードバック処理部は、バイブレータを備えてもよい。例えば、アクチュエータにより振動するバイブレータを備え、ユーザが仮想ディスプレイに接触している状況に応じて、振動状態を変化させる等により、ユーザに仮想ディスプレイと接触していることを伝達してもよい。 The feedback processing unit may include a vibrator. For example, a vibrator that vibrates by an actuator may be provided, and the user may be informed that the user is in contact with the virtual display by changing the vibration state according to the situation in which the user is in contact with the virtual display.
フィードバック処理部は、スピーカを備えてもよい。上記のバイブレータの代わりに、又は、バイブレータとともに、スピーカを備え、音による通知を行ってもよい。 The feedback processing unit may include a speaker. A speaker may be provided in place of the above-mentioned vibrator or together with the vibrator to perform sound notification.
センサは、マイクであってもよい。処理回路は、このマイクが感知したユーザの音声情報に基づいて、所定処理を実行してもよい。入力デバイスとして、マイクを備え、音声又は環境音の情報を感知してもよい。 The sensor may be a microphone. The processing circuit may execute a predetermined process based on the voice information of the user sensed by the microphone. As an input device, a microphone may be provided and information of voice or environmental sound may be sensed.
第1ディスプレイの表示は、ユーザ又は第1ディスプレイが移動した場合に、第2ディスプレイに対する相対的な運動による運動視差に基づいて変化してもよい。運動視差に基づいて実ディスプレイにおける仮想ディスプレイの表示領域等を変更することにより、ユーザビリティを向上させたり、臨場感を向上させたりすることもできる。 The display of the first display may change based on the motion parallax due to the relative movement to the second display when the user or the first display moves. By changing the display area of the virtual display in the real display based on the motion parallax, usability can be improved and the sense of presence can be improved.
外部と情報を送受信する、通信部、をさらに備えてもよい。そして、通信部を介して外部デバイスとの相対的な位置関係を通信部より受信し、当該位置関係に基づいて、第1ディスプレイの表示を更新してもよい。例えば、外部のデバイスとの相対的な位置関係により、仮想ディスプレイをAR空間のオブジェクト情報を配置等する仮想空間としてもよく、実ディスプレイをこのAR内の特定のオブジェクト等を、実際の背景と重畳して表示するディスプレイとして機能させることもできる。 It may further include a communication unit that transmits / receives information to and from the outside. Then, the relative positional relationship with the external device may be received from the communication unit via the communication unit, and the display on the first display may be updated based on the positional relationship. For example, depending on the relative positional relationship with an external device, the virtual display may be used as a virtual space for arranging object information in AR space, and the real display may be superimposed on a specific object in this AR with the actual background. It can also function as a display to display.
第1ディスプレイは、平面状又は曲面状の2次元のディスプレイであってもよい。このように、実ディスプレイの形状は、平面に限定されるものではない。 The first display may be a two-dimensional display having a flat surface or a curved surface. As described above, the shape of the actual display is not limited to the plane.
第1ディスプレイは、処理回路において仮想的に生成されるユーザの体の一部の形状を有する仮想ディスプレイであってもよい。そして、プロジェクタ機能を備える発光部から表示面としてユーザの体の一部を利用するものであってもよい。すなわち、実ディスプレイは、投影型のディスプレイであってもよい。 The first display may be a virtual display having a shape of a part of the user's body that is virtually generated in the processing circuit. Then, a part of the user's body may be used as a display surface from the light emitting unit having a projector function. That is, the actual display may be a projection type display.
第1ディスプレイは、3次元ディスプレイであってもよい。例えば、ライトフィールドディスプレイ等の空間に映像等を投射するディスプレイであってもよい。 The first display may be a three-dimensional display. For example, it may be a display that projects an image or the like into a space such as a light field display.
第2ディスプレイは、3Dオブジェクトを投影する3次元的なディスプレイであってもよい。仮想ディスプレイの形状は、実ディスプレイの形状以上に柔軟性を持たせることができる。例えば、仮想ディスプレイは、仮想空間(VR空間、AR空間等)そのものとして定義されるものであってもよい。 The second display may be a three-dimensional display that projects a 3D object. The shape of the virtual display can be more flexible than the shape of the real display. For example, the virtual display may be defined as a virtual space (VR space, AR space, etc.) itself.
第2ディスプレイは、ユーザと第1ディスプレイとの間に定義されてもよい。 The second display may be defined between the user and the first display.
第2ディスプレイは、ユーザから第1ディスプレイよりも遠くに定義されてもよい。このように、第2ディスプレイの位置に対する第1ディスプレイの位置、又は、見方によっては、第1ディスプレイの位置に対する第2ディスプレイの位置は、任意にとることが可能である。 The second display may be defined farther than the first display from the user. As described above, the position of the first display with respect to the position of the second display, or the position of the second display with respect to the position of the first display can be arbitrarily set depending on the viewpoint.
処理回路は、第1ディスプレイを介して第2ディスプレイに表示されているコンテンツを表示するモードと、コンテンツを第1ディスプレイに直接表示するモードと、を切り替え可能であってもよい。すなわち、実ディスプレイは、仮想ディスプレイを投影するディスプレイとして原則起動するものであってもよいし、実ディスプレイに固有の表示を実行するものとして原則起動するものであってもよい。 The processing circuit may be switchable between a mode for displaying the content displayed on the second display via the first display and a mode for displaying the content directly on the first display. That is, the real display may be activated in principle as a display that projects a virtual display, or may be activated in principle as a display that is unique to the real display.
デバイスは、ユーザの腕に装着するウェアラブルデバイスでああってもよい。例えば、腕時計型(スマートウォッチ等)の形態であってもよい。 The device may be a wearable device worn on the user's arm. For example, it may be in the form of a watch type (smart watch or the like).
デバイスは、眼鏡型のウェアラブルデバイスであってもよい。この場合、第1ディスプレイは、眼鏡型のウェアラブルデバイスのレンズに備えられてもよい。眼鏡型とすることにより、実ディスプレイの閲覧をより意識することなく行うことができる。 The device may be a glasses-type wearable device. In this case, the first display may be provided on the lens of a spectacle-type wearable device. By using the glasses type, it is possible to browse the actual display without being more conscious of it.
第1ディスプレイは、ユーザからの視点に対して透過した表示をした上で、第2ディスプレイに表示されているコンテンツを重ねて表示してもよい。例えば、眼鏡型デバイスである場合に、仮想ディスプレイのコンテンツと、実際にユーザが見るコンテンツとを重畳して閲覧することができる。 The first display may display the content displayed on the second display in an overlapping manner after displaying the content transparent to the viewpoint from the user. For example, in the case of a spectacle-type device, the content of the virtual display and the content actually viewed by the user can be superimposed and viewed.
第2ディスプレイは、複数ユーザがアクセスできる仮想空間内の仮想現実を投影するディスプレイであってもよく、デバイスにより、複数ユーザが同じ仮想現実を体験してもよい。例えば、遠隔会議システム等を行う場合に、複数のユーザが共有したコンテンツを異なる角度又は同じ角度から見ることが可能となる。 The second display may be a display that projects a virtual reality in a virtual space that can be accessed by a plurality of users, and the device may allow a plurality of users to experience the same virtual reality. For example, when performing a remote conference system or the like, it is possible to view the contents shared by a plurality of users from different angles or the same angle.
第2ディスプレイは、仮想空間内の仮想現実を投影するディスプレイであってもよく、仮想現実は、遠隔地に存在する別の装置のセンサの感知情報により再構成されてもよい。 The second display may be a display that projects the virtual reality in the virtual space, and the virtual reality may be reconstructed by the sensor sensing information of another device located in a remote place.
処理回路は、ユーザの視力に基づいて、第1ディスプレイに表示する内容を再構成してもよい。 The processing circuit may reconstruct the content displayed on the first display based on the user's visual acuity.
処理回路は、周囲の明るさの環境に基づいて、第1ディスプレイにダイナミックレンジを変換した画像を表示してもよい。このように、ユーザビリティを向上する処理を実行してもよい。 The processing circuit may display an image having a converted dynamic range on the first display based on the environment of ambient brightness. In this way, the process for improving usability may be executed.
処理回路は、第1ディスプレイに望遠鏡を介した第2ディスプレイの一部又は全部の画像を表示してもよい。 The processing circuit may display a part or all of the image of the second display via the telescope on the first display.
処理回路は、第1ディスプレイに顕微鏡を介した第2ディスプレイの一部又は全部の画像を表示してもよい。このように、カメラをもちいて興味のある対象を観察できるような処理を実行してもよい。 The processing circuit may display a part or all of the image of the second display through the microscope on the first display. In this way, you may use the camera to perform processing that allows you to observe the object of interest.
デバイスは、変形可能であってもよい。デバイスは、1つの形態に限られず、物理的に変形可能な2以上の形態、例えば、腕時計型と眼鏡型と、を有していてもよい。 The device may be deformable. The device is not limited to one form, and may have two or more physically deformable forms, for example, a wristwatch type and a spectacle type.
処理回路は、デバイスを身につけているユーザの所定点を基準とする第1座標系と、ユーザがデバイスを身につけている点を基準とする第2座標系と、ユーザの目を基準とする第3座標系と、第2ディスプレイの所定点を基準とする第4座標系と、に基づいて、第1ディスプレイに表示する第2ディスプレイの領域及び方向を設定してもよい。 The processing circuit is based on the first coordinate system based on a predetermined point of the user wearing the device, the second coordinate system based on the point on which the user is wearing the device, and the eyes of the user. The area and direction of the second display to be displayed on the first display may be set based on the third coordinate system and the fourth coordinate system based on a predetermined point of the second display.
処理回路は、ユーザの所定点を基準に、第2ディスプレイの位置を仮想的に定義してもよい。 The processing circuit may virtually define the position of the second display with respect to a predetermined point of the user.
処理回路は、第2座標系における第1ディスプレイの位置を、第1座標系に変換し、第3座標系におけるユーザの目の位置を、第1座標系に変換し、ユーザの目から第1ディスプレイを介して第2ディスプレイを見た場合の第1ディスプレイに表示する領域を算出し、第1ディスプレイに第2ディスプレイの一部又は全部の領域を表示してもよい。 The processing circuit converts the position of the first display in the second coordinate system into the first coordinate system, converts the position of the user's eye in the third coordinate system into the first coordinate system, and converts the position of the user's eye into the first coordinate system, and the first from the user's eye. The area to be displayed on the first display when the second display is viewed through the display may be calculated, and a part or all of the area of the second display may be displayed on the first display.
処理回路は、オイラー角を用いて第2座標系から第1座標系への座標変換を実行してもよい。 The processing circuit may perform coordinate transformation from the second coordinate system to the first coordinate system using Euler angles.
処理回路は、クォータニオンを用いて第2座標系から第1座標系への座標変換を実行してもよい。 The processing circuit may perform a coordinate transformation from the second coordinate system to the first coordinate system using a quaternion.
処理回路は、回転行列を用いて第2座標系から第1座標系への座標変換を実行してもよい。 The processing circuit may perform a coordinate transformation from the second coordinate system to the first coordinate system using a rotation matrix.
処理回路は、第2ディスプレイからの相対的な第1ディスプレイの位置及び姿勢を算出し、算出した第1ディスプレイの位置及び姿勢に基づいて、第2ディスプレイの一部又は全部に表示される内容を第1ディスプレイに投影変換して表示してもよい。 The processing circuit calculates the position and orientation of the first display relative to the second display, and based on the calculated position and orientation of the first display, the content displayed on a part or all of the second display is displayed. It may be projected and converted to the first display.
座標系には、直交座標系、円柱座標系又は球座標系を用いてもよい。このように、処理回路は、種々の方法、手段により仮想ディスプレイを実現し、コンテンツを実ディスプレイに表示させてもよい。 As the coordinate system, an orthogonal coordinate system, a cylindrical coordinate system, or a spherical coordinate system may be used. As described above, the processing circuit may realize a virtual display by various methods and means, and display the contents on the real display.
一実施形態によれば、制御方法は、処理回路に、上記のいずれかに記載の処理を実行させる方法である。 According to one embodiment, the control method is a method of causing the processing circuit to perform the process described in any of the above.
一実施形態によれば、プログラムは、処理回路に、上記のいずれかに記載の処理を実行させる。このように、上記の処理は、処理回路において、ソフトウェアによる情報処理が実ディスプレイ等のハードウェアを用いて具体的に実装されるものであってもよい。 According to one embodiment, the program causes the processing circuit to perform the process described in any of the above. As described above, in the processing circuit, information processing by software may be specifically implemented by using hardware such as an actual display.
以下、図面を参照して本開示における実施形態の説明をする。図面は、説明のために用いるものであり、実際の装置における各部の構成の形状、サイズ、又は、他の構成とのサイズの比等が図に示されている通りである必要はない。また、図面は、簡略化して書かれているため、図に書かれている以外にも実装上必要な構成は、適切に備えるものとする。 Hereinafter, embodiments in the present disclosure will be described with reference to the drawings. The drawings are for illustration purposes only, and the shape, size, or size ratio of each part configuration to other configurations in an actual device need not be as shown in the figure. In addition, since the drawings are written in a simplified form, it is assumed that configurations necessary for mounting other than those shown in the drawings are appropriately prepared.
(第1実施形態)
図1は、ユーザが一実施形態に係るウェアラブルデバイスを装着して利用している一例を模式的に示す図である。この図1に示すように、一例として、ウェアラブルデバイス1は、ユーザが腕に装着する腕時計型のデバイスである。本実施形態においては、ウェアラブルデバイス1は、その表示面である第1ディスプレイを介して、仮想的なディスプレイである第2ディスプレイ2に出力されている、又は、出力されていると仮定する表示を行う。第2ディスプレイ2は、例えば、ウェアラブルデバイス1内の処理回路において仮想的に定義されるディスプレイであり、第2ディスプレイ2として、実際の物理的なディスプレイが存在するわけではない。例えば、第2ディスプレイ2は、ウェアラブルデバイス1に備えられる第1ディスプレイより広い表示領域を有し、第1ディスプレイに出力する情報よりも多くの情報を表示するディスプレイとして定義されてもよい。これには限られず、第2ディスプレイの表示領域が、第1ディスプレイの表示領域と同等、又は、第1ディスプレイよりも狭い表示領域を有するものであってもよい。
(First Embodiment)
FIG. 1 is a diagram schematically showing an example in which a user wears and uses a wearable device according to an embodiment. As shown in FIG. 1, as an example, the
具体的な例としては、第2ディスプレイ2に広域の地図が仮想的に表示されるものとし、この一部又は全部をウェアラブルデバイス1の第1ディスプレイを介して窓を通してみるようにユーザが見ることができる。
As a specific example, it is assumed that a wide area map is virtually displayed on the
なお、本開示においては、限定されない一形態として、腕時計型のデバイスを中心に説明をするが、これは一例としてあげられるものである。すなわち、本開示の発明は、腕時計型のデバイスに限定されるものではない。例えば、装着型のデバイスである、眼鏡、スマートフォンのような大きさを有する腕に装着するデバイス、また、腕時計型から眼鏡型へと変形するデバイス等であってもよいし、これらの例にも限定されるものではない。 In this disclosure, a wristwatch-type device will be mainly described as an unrestricted form, but this is given as an example. That is, the invention of the present disclosure is not limited to a wristwatch-type device. For example, it may be a wearable device such as eyeglasses, a device worn on an arm having a size such as a smartphone, a device that transforms from a wristwatch type to an eyeglass type, and the like. Not limited.
例えば、装着型ではなくとも、バンド等を用いて腕に装着型と準ずるデバイスを装着型デバイスとして扱ってもよい。さらには、装着型ではないデバイス、例えば、手に持って操作及び表示をするデバイスに対しても同様の処理を実現することが可能である。つまり、ウェアラブルデバイスとして説明するが、これに準ずるデバイスも本開示の形態には含まれる。 For example, even if it is not a wearable type, a device similar to a wearable type may be treated as a wearable device by using a band or the like. Furthermore, it is possible to realize the same processing for a device that is not a wearable type, for example, a device that is held in a hand for operation and display. That is, although it will be described as a wearable device, a device similar thereto is also included in the form of the present disclosure.
図2は、一実施形態に係るウェアラブルデバイス1を模式的に示すブロック図である。ウェアラブルデバイス1は、入力部10と、記憶部12と、処理部14と、出力部16と、を備える。この例は、簡易な構成を示すものであり、さらに必要となる部が適切に備えられていてもよい。
FIG. 2 is a block diagram schematically showing the
入力部10は、例えば、種々のセンサを備え、ウェアラブルデバイス1の状態を取得する。また、入力部10は、ユーザからの要求を取得するためのユーザインタフェースを備えていてもよい。
The
記憶部12は、例えば、非一時的又は一時的なメモリ領域を備えて構成される。この実装はどのような実装でもよく、例えば、各種ROM(Read Only Memory)、RAM(Random Access Memory)を備えていてもよい。また、キャッシュ領域を備えていてもよい。処理部が、ソフトウェアによる情報処理がハードウェア資源を用いて具体的に実現されるように処理を実行する場合には、当該ソフトウェアの情報処理に必要となるプログラム等を記憶してもよい。記憶部12は、その他、入力部10から入力したデータを格納したり、ウェアラブルデバイス1に必要となるデータ等を格納したりしてもよい。
The
処理部14は、例えば、処理回路を備えて構成される。処理回路は、例えば、CPU(Central Processing Unit)等であってもよい。また、処理部14は、CPUの他にも処理を適切に実行する、高速に実行する、又は、精度よく実行するための各種アクセラレータを備えていてもよい。例えば、前述の第2ディスプレイ2は、処理部14が仮想空間内に仮想的な映像を出力するように定義してもよい。この場合、映像等の情報は、記憶部12に格納されていてもよい。そして、処理部14が第1ディスプレイから出力する情報をこの第2ディスプレイから切り出して出力してもよい。別の例として、第1ディスプレイに表示されると推定される領域における第2ディスプレイの表示のみ(又は、その周辺の情報を含めた情報)を処理部14が演算を実行して出力してもよい。
The
出力部16は、例えば、第1ディスプレイを備える。この第1ディスプレイは、ウェアラブルデバイス1に備えられるディスプレイである。処理部14は、第2ディスプレイ2の情報をユーザが第1ディスプレイを介して覗く状態を推定し、第1ディスプレイに出力する映像又は画像(以下、映像等と記載する)信号を演算処理し、取得された映像等を第1ディスプレイに表示する。
The
ウェアラブルデバイス1の基本的な構成は、以上の通りである。以下、より具体的な例について、詳しく説明する。
The basic configuration of the
図3は、腕時計型のウェアラブルデバイス1の一例を模式的に示すブロック図である。ウェアラブルデバイス1は、慣性センサ100と、記憶部12と、処理部14と、第1ディスプレイ160と、を備える。
FIG. 3 is a block diagram schematically showing an example of a wristwatch-type
慣性センサ100は、ウェアラブルデバイス1の入力部10に備えられるセンサである。この慣性センサ100は、ウェアラブルデバイス1の動き、すなわち、ユーザが静止又は慣性運動をしている場合にウェアラブルデバイス1がどのように動かされたかについて加速度等を取得して当該情報を出力するセンサである。慣性センサ100は、例えば、加速度センサ、ジャイロセンサ等を備えてもよいし、これらが複数の軸に対する動きをとらえるように複数備えられていてもよい。この他、慣性センサ100は、角速度を取得してもよく、また、複数方向の加速度をとらえる多軸のセンサであってもよい。
The
第1ディスプレイ160は、ウェアラブルデバイス1の出力部16に備えられる出力インタフェースの1つである。ウェアラブルデバイス1は、第1ディスプレイ160に表示を行うことにより、ユーザへと情報を出力する。第1ディスプレイ160は、例えば、第2ディスプレイ2をユーザ側から覗き見る窓のような役割を果たす。ユーザは、情報を見たい位置にウェアラブルデバイス1を移動したり、情報を見たい角度にウェアラブルデバイス1の姿勢を調整したりすることにより、第2ディスプレイ2に仮想的に表示される映像等における任意の一部又は全部の情報を任意の姿勢から見ることが可能となる。このように、ウェアラブルデバイス1は、VR(Virtual Reality)又はAR(Augmented Reality)空間内に存在する第2ディスプレイ2に表示される映像等を見ることができる。
The
例えば、ユーザは、ウェアラブルデバイス1が装着されている腕を所定ジェスチャにしたがい動かすことによりウェアラブルデバイス1に対して要求を入力することができる。このジェスチャは、慣性センサ100により取得され、処理部14により処理される。また、慣性センサ100が取得したウェアラブルデバイス1の移動情報に基づいて、処理部14は、第2ディスプレイ2に対する第1ディスプレイ160の位置、姿勢を取得する。
For example, the user can input a request to the
処理部14は、ユーザのからだの3点の座標を抽出し、この3点の相対的な位置姿勢関係から、第1ディスプレイ160を介して第2ディスプレイ2の一部又は全部を表示する。そして、ユーザは、ウェアラブルデバイス1の第1ディスプレイ160を介して、第2ディスプレイ2に表示されている映像等の一部又は全部を閲覧することが可能となる。
The
ユーザは、仮想的な第2ディスプレイ2上に表示されている映像等において、第1ディスプレイ160を介して見ることのできる領域を変更することができる。ユーザは、例えば、ウェアラブルデバイス1を移動させることにより、第1ディスプレイ160に出力されている第2ディスプレイ2の領域を変更する実装としてもよい。ウェアラブルデバイス1は、慣性センサ100により、ウェアラブルデバイス1自体の相対的な位置が移動したことを感知し、この移動情報を処理部14へと出力する。処理部14は、この移動情報に基づいて、第1ディスプレイ160に表示されている映像等の領域を変更する。上記と同様に、この処理は、ウェアラブルデバイス1の位置のみならず、姿勢に関して実行してもよい。
The user can change the area that can be seen through the
このように、第1ディスプレイ160の位置、姿勢を変化させることにより、処理部14は、第1ディスプレイ160に表示する内容を適切に更新して出力を行う。このため、ユーザは、自らが見たいと望む方向等にウェアラブルデバイス1、すなわち、自らの腕を動かすことにより、第2ディスプレイ2の異なる領域の情報を取得することが可能となる。
By changing the position and posture of the
図4は、本実施形態に係るウェアラブルデバイス1の処理の流れを示すフローチャートである。
FIG. 4 is a flowchart showing a processing flow of the
まず、慣性センサ100により、ウェアラブルデバイス1の状態を感知する(S100)。状態の感知は、上述したように一例として、ユーザが静止又は慣性運動をしている場合に、加速度の変化を取得することにより実現される。例えば、慣性センサ100の感知情報により、ウェアラブルデバイス1がどのように移動したか、又は、どのように姿勢が変化したかを取得することができる。
First, the
次に、処理部14は、慣性センサ100の取得した情報に基づいて、ユーザのからだの所定の3点の位置、姿勢の関係を取得する(S102)。ユーザのからだの所定の3点の位置は、例えば、ユーザの胸の位置、目の位置、及び、ウェアラブルデバイス1を装着している位置である。
Next, the
この3点の位置は、例えば、ウェアラブルデバイス1の装着位置、及び、慣性センサ100により取得された動きの様子から算出されてもよい。例えば、ユーザがウェアラブルデバイス1を左腕に、手の甲側に第1ディスプレイ160が向くように装着しているとして、この場合に、慣性センサ100が取得したウェアラブルデバイス1の移動の状態から算出することができる。
The positions of these three points may be calculated from, for example, the mounting position of the
より詳しくは、ユーザのからだという拘束条件に従ってウェアラブルデバイス1は、動作する。この拘束条件にも基づいて、処理部14は、所定の3点の位置を推定して取得する。一例として、ユーザが、腕を下ろした状態から胸の前へとウェアラブルデバイス1を移動させて静止させる場合を仮定して、移動前の位置と、移動後の静止した位置とに基づいて、胸の位置を推定する。ユーザのこのような動きは、一般的な動きである。また、以下に説明するように、腕を下ろした状態という基準状態を設定せずに、任意の状態からユーザの腕の動きを慣性センサ100により感知して、ウェアラブルデバイス1を見る状態を推定することも可能である。
More specifically, the
図5は、ユーザがウェアラブルデバイス1を見ている一例を示す図である。この図において、座標系が3つ示されているが、これは、原点を特定するために示すものではなく、方向を示す軸として示す。原点は、任意の点とすることができるが、例えば、第1座標系の原点は、第1所定点W、第2座標系の原点は、第2所定点R、第3座標系の原点は、第3所定点E、等と定義してもよい。また、計算がより高速又はより正確に実行できるように、原点を定義してもよい。
FIG. 5 is a diagram showing an example in which the user is looking at the
この図にあるように、例えば、ユーザの第1所定点Wである、胸の位置を基準とした第1座標系を定義する。軸は、一例として、ユーザの身長方向をz軸とし、z軸に直角に交わる軸、すなわち、ユーザが直立した場合に水平面にある軸であり、ユーザの肩を結んだ方向である軸をx軸、x軸及びz軸と直角に交わる軸をy軸とする。軸の取り方は、3次元座標が適切に定義される座標系であれば任意であり、このような座標系の取り方に限定されるものではない。 As shown in this figure, for example, a first coordinate system based on the position of the chest, which is the user's first predetermined point W, is defined. As an example, the axis is the z-axis in the height direction of the user, and the axis that intersects the z-axis at right angles, that is, the axis that is in the horizontal plane when the user stands upright, and the axis that connects the user's shoulders is x. The y-axis is the axis that intersects the axis, x-axis, and z-axis at right angles. The method of taking the axis is arbitrary as long as it is a coordinate system in which the three-dimensional coordinates are appropriately defined, and is not limited to the method of taking such a coordinate system.
同様に、ウェアラブルデバイス1のうち任意の1点である第2所定点Rを基準とする第2座標系を定義する。軸は、一例として、第1ディスプレイ160のx軸、y軸と、これらの軸と直角に交わる奥行き方向のz軸とする。同様に、軸の取り方は、適切であれば任意であってもよい。第2所定点Rの位置は、図示する上でわかりやすいように、第1ディスプレイ160の中央付近にある点としているが、例えば、第1ディスプレイ160の左上の画素を示す点、中央の点、等、第1ディスプレイ160内の位置が指定できれば、第2所定点R(基準点)の取り方は、任意でよい。
Similarly, a second coordinate system with reference to a second predetermined point R, which is any one point of the
さらに、ユーザの目の位置である第3所定点Eを基準とする第3座標系を定義する。軸は、一例として、ユーザの両目をつないだ軸をx軸、ユーザの頭の方向をy軸として、これらの軸に垂直に交わる軸をz軸としてもよい。上記と同様に、軸の取り方は、適切であれば任意であってもよい。別の例として、第3所定点Eから第1ディスプレイ160(例えば、第2所定点R)の方向をz軸とし、これら2軸に垂直な方向としてy軸を設定してもよい。あるいは、第3座標系は、第2座標系と、原点が異なり、各軸がそれぞれに平行な軸を有する座標系、すなわち、第2座標系を並進移動させた座標系としてもよい。 Further, a third coordinate system based on the third predetermined point E, which is the position of the user's eyes, is defined. As an example, the axis may be the axis connecting both eyes of the user as the x-axis, the direction of the user's head as the y-axis, and the axis perpendicular to these axes as the z-axis. Similar to the above, the method of taking the shaft may be arbitrary as long as it is appropriate. As another example, the direction from the third predetermined point E to the first display 160 (for example, the second predetermined point R) may be set as the z-axis, and the y-axis may be set as the direction perpendicular to these two axes. Alternatively, the third coordinate system may be a coordinate system having a different origin from the second coordinate system and having axes parallel to each axis, that is, a coordinate system obtained by translating the second coordinate system.
なお、図5においては、一例として、第3所定点Eをユーザの左目としたが、これには限られない。例えば、第3所定点を両目の位置の2点の位置としてもよいし、眉間、すなわち、両目の位置の中点としてもよい。例えば、両目の位置とする場合には、第3所定点E、E’を用いて座標系を形成してもよい。このように、第3座標系において2点の基準位置をもうけることにより、例えば、ステレオ映像に対応できるものとしてもよい。 In FIG. 5, as an example, the third predetermined point E is the left eye of the user, but the present invention is not limited to this. For example, the third predetermined point may be the position of two points at the positions of both eyes, or may be the middle point between the eyebrows, that is, the positions of both eyes. For example, in the case of the positions of both eyes, the coordinate system may be formed by using the third predetermined points E and E'. In this way, by having two reference positions in the third coordinate system, for example, a stereo image may be supported.
このように、3つの系列の軸を準備することにより、ユーザの所定の3点の位置を中心とした軸を定義することが可能となる。すなわち、この軸の方向により、各所定点に対する周辺の姿勢を取得することができる。具体的には、第1所定点Wの位置と軸の方向から、ユーザの全体的な位置及び体の全体的な姿勢を取得することができる。第2所定点Rの位置と軸の方向から、ウェアラブルデバイス1の位置及び第1座標系に対する姿勢を取得することができる。第3所定点Eの位置と軸の方向から、ユーザの目の位置及び視線方向を取得することができる。
By preparing the axes of the three series in this way, it is possible to define the axes centered on the positions of the three predetermined points of the user. That is, the posture of the periphery with respect to each predetermined point can be acquired from the direction of this axis. Specifically, the overall position of the user and the overall posture of the body can be acquired from the position of the first predetermined point W and the direction of the axis. From the position of the second predetermined point R and the direction of the axis, the position of the
上記の所定点は、例えば、デバイスの工場出荷時に適切に定められるものであってもよい。工場出荷時に、所定点として、複数のユーザにおいて取得された各位置を統計的手段により定義したものであってもよい。 The above-mentioned predetermined points may be appropriately determined at the time of factory shipment of the device, for example. At the time of shipment from the factory, each position acquired by a plurality of users may be defined by statistical means as a predetermined point.
また、デバイスの初期起動時に、ユーザが、通常時にウェアラブルデバイス1を見る位置、胸の位置、目の位置を指定することにより、キャリブレーションを実行してもよい。例えば、ユーザが通常時にデバイスを見る腕の位置、胸の位置、目の位置、にそれぞれ指示された通りにウェアラブルデバイス1を移動させて静止又は画面タップ、ボタン押下等の合図を送り、このタイミングにおける慣性センサ100の感知情報に基づいて、処理部14によりキャリブレーションが実行されてもよい。このキャリブレーションのパラメータは、記憶部12に記憶されてもよい。また、初期起動時だけではなく、ユーザが任意のタイミングでキャリブレーションできる構成としてもよい。所定期間キャリブレーションが実行されていない場合には、再キャリブレーションを促す構成としてもよい。
Further, at the initial booting of the device, the user may perform calibration by designating the position where the
処理部14は、これらの3つの座標系を用いて、ユーザの所定点の位置、及び、姿勢を取得する。
The
図4に戻り、次に、処理部14は、第2ディスプレイ2に表示されている内容を第1ディスプレイ160に表示する内容へと変換する(S104)。この変換は、S102で取得された各点の位置及び各点の周りにおけるユーザ、デバイスの姿勢に基づいて変換される。このステップでは、上記の座標系に加え、さらに、第2ディスプレイ2の表示領域を各座標系と紐付ける必要がある。
Returning to FIG. 4, the
図6は、ウェアラブルデバイス1を使用するユーザと、第2ディスプレイ2のそれぞれの座標系を示す図である。第4座標系は、第2ディスプレイ2上の任意の1点である第4所定点Vを基準として定義される座標系である。第4座標系は、例えば、第2ディスプレイ2のx軸、y軸をそれぞれx軸、y軸とし、ユーザから第2ディスプレイ2を仮想的に見た場合の奥行き方向をz軸としてもよい。
FIG. 6 is a diagram showing a user who uses the
第4所定点Vは、仮想的なディスプレイ上の点であるので、任意に設定することが可能である。処理部14は、第1所定点Wと第4所定点Vとの関係を任意に定義してもよい。逆に言うと、第1所定点Wと、第1座標系の軸の姿勢に基づいて、第2ディスプレイ2の位置を定義してもよい。
Since the fourth predetermined point V is a point on a virtual display, it can be set arbitrarily. The
より具体的には、処理部14は、第1所定点Wと第1座標系の軸が設定されると、第2ディスプレイ2の位置、形状、大きさ、姿勢等、第2ディスプレイ2を形成するために必要な情報を設定する。この設定は、例えば、記憶部12にあらかじめ格納されているデータに基づいて行ってもよいし、ユーザにより変更可能なデータに基づいて行ってもよい。そして、定義された第2ディスプレイ2に対して第4座標系が設定され、この座標系において映像信号を仮想的に生成する。第2ディスプレイ2の形成と、第4座標系の形成の順番は、これには限られず、先に第4座標系が定義されてもよい。また、第4座標系は設定することなしに、第2ディスプレイ2の存在している領域等の映像を仮想的に表示する領域等が第1座標系において定義されてもよい。
More specifically, when the first predetermined point W and the axis of the first coordinate system are set, the
第1所定点Wと第4所定点Vとの位置関係が固定されることにより、ウェアラブルデバイス1が第1所定点W、第2所定点R、第3所定点Eを推定した後、ユーザの目から第1ディスプレイ160を介して、第2ディスプレイ2を見る場合に、適切な映像等を取得し、表示することができる。すなわち、第1所定点Wと第4所定点Vの位置及び軸方向の関係、及び、推定された第1所定点W、第2所定点R、第3所定点Eの位置及び軸方向の関係、に基づいて、第3所定点Eから第1ディスプレイ160を見る場合の第2ディスプレイ2の領域及び姿勢を取得することができる。
By fixing the positional relationship between the first predetermined point W and the fourth predetermined point V, the
そこで、処理部14は、各所定点及び座標系の関係に基づいて、第1ディスプレイ160に表示する第2ディスプレイ2の領域及び姿勢を算出する。処理部14は、例えば、種々の投影変換手法により、第1ディスプレイ160に出力する映像等を、第2ディスプレイ2に表示される映像等を変換することにより取得する。
Therefore, the
ここで、座標変換の一例について具体的に説明する。なお、本形態の変換は、以下の例に限定されるものではない。 Here, an example of coordinate transformation will be specifically described. The conversion of this embodiment is not limited to the following examples.
まず、第1所定点Wを基準に第2所定点Rと第3所定点Eの位置及び姿勢のパラメータを取得する。このパラメータは、それぞれ、[位置3自由度, 姿勢3自由度]の6個の自由度を有する。2つの点があるので、12個の自由度を有する未知のパラメータとなる。 First, the parameters of the positions and postures of the second predetermined point R and the third predetermined point E are acquired with reference to the first predetermined point W. Each of these parameters has 6 degrees of freedom: [3 degrees of freedom in position, 3 degrees of freedom in posture]. Since there are two points, it is an unknown parameter with 12 degrees of freedom.
上述したように、限定されない一例として、第1所定点Wは、ユーザの胸の一点、第2所定点は、第1ディスプレイ160の任意の一点、第3所定点Eは、ユーザの目を示す点である。
As described above, as an example without limitation, the first predetermined point W indicates one point on the user's chest, the second predetermined point indicates any one point on the
位置を示すパラメータは、それぞれの点を示す座標として取得することができる。 The parameter indicating the position can be acquired as the coordinates indicating each point.
姿勢を示すパラメータは、例えば、オイラー角で示される。このオイラー角は、それぞれの座標系における角度として取得することができる。例えば、第1所定点Wの位置は、第1座標系における胸の座標、姿勢は、第1座標系における胸の向きを示すオイラー角で示される。第2所定点Rの位置は、第2座標系における座標、姿勢は、第2座標系における第1ディスプレイ160の向き、例えば、第2所定点Rにおける第1ディスプレイ160の法線ベクトル(の単位ベクトル)として示されるベクトルからオイラー角で示されてもよい。第3所定点Eの位置は、第3座標系における座標、姿勢は、第3座標系におけるユーザの目の向いている方向としてオイラー角により示される。
The parameters indicating the posture are indicated by, for example, Euler angles. This Euler angle can be obtained as an angle in each coordinate system. For example, the position of the first predetermined point W is indicated by the coordinates of the chest in the first coordinate system, and the posture is indicated by the Euler angles indicating the direction of the chest in the first coordinate system. The position of the second predetermined point R is the coordinates in the second coordinate system, and the attitude is the direction of the
なお、姿勢は、オイラー角で示すだけではなく、4自由度を有するクォータニオン、又は、回転行列として示されてもよい。オイラー角以外のパラメータで示すことにより、座標軸間の演算において、ジンバルロックを考慮すること無く、より柔軟に適用できる可能性もある。一方で、オイラー角を用いることにより、パラメータを削減することができる。慣性センサによる情報から算出する手順が固定されたものであれば、オイラー角でもあらかじめジンバルロックを回避する算出法により計算式を設定しておくことにより、この問題を回避することは可能である。また、処理部14に備えられる処理回路に基づいて、これらの手法のいずれがパラメータを示す指標として用いられるかが、適切に選択されてもよい。
The posture may be shown not only by Euler angles but also as a quaternion having 4 degrees of freedom or a rotation matrix. By indicating with parameters other than Euler angles, there is a possibility that it can be applied more flexibly without considering gimbal lock in the calculation between the axis. On the other hand, parameters can be reduced by using Euler angles. If the procedure for calculating from the information from the inertial sensor is fixed, it is possible to avoid this problem by setting the calculation formula in advance by a calculation method that avoids gimbal lock even for Euler angles. Further, based on the processing circuit provided in the
処理部14は、慣性センサ100が感知した情報から、第2所定点Rの位置及び姿勢を取得する。この取得は、例えば、慣性センサ100の動きを検知してトレースすることにより実現されてもよい。例えば、ユーザは、手を下げた状態から、第1ディスプレイ160が見られる位置まで、ウェアラブルデバイス1を腕とともに移動させる。このように移動して静止した状態で、第2座標系を設定し、第1所定点Wからの位置を推定する。
The
また、時系列データを適切な長さで取得することにより、手を下げた状態、という所定の状態からでなくとも、ユーザがウェアラブルデバイス1の第1ディスプレイ160を見ようとしている状態であることを学習済モデルにより推定することも可能である。これは、種々の動きにおいて、慣性センサ100とモーションキャプチャ等の正しいデータとを対応させることにより、任意の状態から、ユーザが第1ディスプレイ160を見ている状態に遷移したかを検出することができる。
In addition, by acquiring the time-series data with an appropriate length, the user is trying to see the
推定は、腕を様々に動かした場合の慣性センサ100の感知情報、例えば、加速度、角速度の時系列データに基づいた学習済モデルの出力として取得してもよい。学習済モデルは、上記の慣性センサ100の感知情報の時系列と、モーションキャプチャ等の別の手段で取得した正しい位置、姿勢の時系列データをデータベースとして保持しておき、これらのデータを教師データとして訓練した学習済モデルを用いてもよい。そして、慣性センサ100の時系列データから正しいウェアラブルデバイス1の位置、姿勢を出力する学習済モデルを推論器として最適化する。処理部14は、この推論器を用いて第2所定点Rの位置、姿勢を推定してもよい。
The estimation may be acquired as the output of a trained model based on the sensing information of the
訓練は、一例として、以下のように実現される。ここで、aを慣性センサ100の感知データ、例えば、加速度と角速度から構成される6次元データ、WpRを第1座標系における第2所定点Rの正しい位置、姿勢を示す6次元データ、Wを重み行列(6 × 6次元)として、式(1)に基づき、Wを機械学習により最適化する。
機械学習により式(1)に基づいて、重みパラメータのWを求める。そして、処理部14は、訓練済のWのパラメータを用いて、第1座標系における第2所定点Rの位置及び姿勢を、慣性センサ100の感知した時系列データから取得する。すなわち、慣性センサ100の感知した実際のデータaについて、Waを算出することにより、第1座標系における第2所定点Rの位置及び姿勢を取得することができる。Wの最適化に用いる機械学習手法は、任意の手法であってもよい。
The weight parameter W is obtained by machine learning based on Eq. (1). Then, the
また、慣性センサ100の感知したデータから第2所定点Rの位置の算出は、機械学習による最適化されたモデルであることには限定されない。適切に、慣性センサ100の感知データから第2所定点Rの第1座標系における位置、姿勢を取得できる線形モデル又は非線形モデルであってもよい。
Further, the calculation of the position of the second predetermined point R from the data sensed by the
続いて、処理部14は、慣性センサ100が感知した情報から、第3所定点Eの位置及び姿勢を取得する。この取得は、例えば、慣性センサ100の動きを検知し、上記と同様に、学習済モデルに入力することにより実現されてもよい。
Subsequently, the
この学習済モデルの訓練は、前述のデータベースに加えて、腕をいろいろと動かした場合の顔画像の特徴bの時系列データをデータベースとして保持することにより実行されてもよい。そして、腕の動きの時系列データから、第2所定点Eの第2座標系における位置、姿勢を取得する学習済モデルが最適化により取得される。
一例として、bは、ユーザが腕を様々に動かした場合の目の位置と、視線の方向を特徴量として画像から取得する。腕の動きと目の位置、姿勢の動きとを時系列データとして取得することにより、ユーザがウェアラブルデバイス1を見る腕の動きをした場合における第3所定点Eの位置、姿勢を推定するモデルを最適化することができる。
As an example, b acquires the position of the eyes and the direction of the line of sight when the user moves his / her arm in various ways from the image as feature quantities. A model that estimates the position and posture of the third predetermined point E when the user moves the arm looking at the
ここで、本開示における演算に使用する変数(スカラー、ベクトル、行列等)の表現について説明する。
式(3)は、X座標系における4 × 1同次座標ベクトルとして表現する。ここで、各座標系は、基準とする所定点の符号で表す。例えば、第1座標系は、第1所定点W、第2座標系は、第2所定点R、第3座標系は、第3所定点E、第4座標系は、第4所定点Vを用いて表す。例えば、式の中でWと記載された場合は、点としては、第1所定点Wを表し、座標系の指定としては、第1座標系を表す。 Equation (3) is expressed as a 4 × 1 homogeneous coordinate vector in the X coordinate system. Here, each coordinate system is represented by a code of a predetermined point as a reference. For example, the first coordinate system has the first predetermined point W, the second coordinate system has the second predetermined point R, the third coordinate system has the third predetermined point E, and the fourth coordinate system has the fourth predetermined point V. Expressed using. For example, when W is described in the equation, the point represents the first predetermined point W, and the coordinate system designation represents the first coordinate system.
例えば、VxVは、第2ディスプレイ2の形状と表示内容を、第4座標系において表現するものである。第2ディスプレイ2が平面である場合、zV = 0で固定される。これには限られず、第2ディスプレイ2は、任意の3次元形状であってもよい。
For example, V x V expresses the shape and display contents of the
例えば、RxRは、実ディスプレイの形状と表現内容を、第2座標系において表現するものである。こちらも、第1ディスプレイ160が平面である場合、zR = 0で固定される。これには限られず、第1ディスプレイ160は、任意の3次元形状であってもよい。
式(4)は、X座標系からY座標系への4 × 4の剛体変換行列を表す。ここで、Y XRは、X座標系に対するY座標系の3 × 3の姿勢行列を示す。Y Xtは、X座標系に対するY座標系の3 × 1の相対位置ベクトルを示す。これらY XR、 Y Xtの各要素の値は、例えば、前述の位置、姿勢のパラメータから一般的にコンピュータビジョン(Computer Vision)関係でよく知られている方法で算出されてもよい。 Equation (4) represents a 4 × 4 rigid transformation matrix from the X coordinate system to the Y coordinate system. Here, Y X R indicates a 3 × 3 attitude matrix of the Y coordinate system with respect to the X coordinate system. Y X t indicates the 3 × 1 relative position vector of the Y coordinate system with respect to the X coordinate system. The values of these Y X R and Y X t elements may be calculated, for example, from the above-mentioned position and posture parameters by a method generally well known in relation to computer vision.
W VMは、第1所定点Wと第2ディスプレイ2の位置関係を示す。この関係性は、あらかじめ設定されたものとしてもよく、すなわち、固定されたものとしてもよい。
W V M represents a first predetermined point W the second positional relationship between the
そして、第2ディスプレイ2の表示を第1ディスプレイ160の表示へと変換する行列、すなわち、第4座標系から第2座標系への投影変換を示す4 × 4次元の行列を式(5)のように定義する。
これらの変換は、直交座標系(デカルト座標系)として示したが、これには限られず、円筒座標系(円柱座標系)、球座標系、又は、その他適切な座標系におけるモデルを生成してもよい。 These transformations have been shown as Cartesian coordinates (Cartesian), but are not limited to, and generate models in cylindrical (cylindrical), spherical, or other suitable coordinate systems. May be good.
図4のS104の実行には、上記に定義した各パラメータを用いる。具体的には、以下のように位置、姿勢の座標変換を実行することにより、第2ディスプレイ2に表示されている映像等の一部又は全部を第1ディスプレイ160に表示する。
Each parameter defined above is used to execute S104 in FIG. Specifically, by executing the coordinate transformation of the position and the posture as follows, a part or all of the image or the like displayed on the
このステップにおいて、まず、第4座標系における第2ディスプレイ2の表示を、第1座標系を介して、第3座標系へと変換し、視点から見た第2ディスプレイ2の点の位置を取得する。上記の行列を用いることにより、式(6)に基づいて、第4座標系の座標は、第1座標系へと変換される。
一方で、第1座標系における第4所定点Vのzの値、すなわち、第1所定点Wから第2ディスプレイ2までの距離と、第1座標系に変換された第4所定点Vとの関係は、式(7)により表される。
式(6)を式(7)に代入すると、式(8)が得られる。
そして、視点から見た第1ディスプレイ160は、式(9)、式(10)から、式(11)と表すことができる。
式(8)に示す点と、式(11)に示す点が位置する、すなわち、ExV = ExRである条件から、投影変換行列R VHを取得する。
この式(13)の関係が、任意のVxVに対して成り立つように、未知パラメータR VHを推定する。この推定の手法は、限定されるものではなく、一般的な手法で実行される。例えば、代数的な手法(近似計算による手法を含む)、反復計算による数値解析的な手法、機械学習による手法を用いて実行されてもよいし、その他種々の最適化法に基づいて実行されてもよい。 The relationship of equation (13), as holds for any V x V, to estimate the unknown parameters R V H. This estimation method is not limited, and is performed by a general method. For example, it may be executed using an algebraic method (including a method by approximate calculation), a numerical analysis method by iterative calculation, a method by machine learning, or it may be executed based on various other optimization methods. May be good.
この行列R VHは、工場出荷時に、統計的に取得されたデータに基づいてあらかじめ複数の状態において演算され、記憶部12に格納されていてもよいし、ユーザに固有のキャリブレーションを行った後に演算され、記憶部12に格納されてもよい。また、その他適切なタイミングにおいて演算されたものであってもよい。例えば、慣性センサ100が動きを感知するたびに、処理部14は、パラメータを更新してもよい。
The matrix R V H is factory, computed in advance a plurality of states based on the statistically acquired data may be stored in the
処理部14は、上記のように取得された行列R VHを用いて第4座標系における第2ディスプレイ2の表示内容を式(14)の変換をすることにより、第1ディスプレイ160に表示する第2ディスプレイ2の映像等の情報を取得する。
次に、処理部14は、式(14)の座標変換に基づいて、第1ディスプレイ160に表示する内容を算出し、情報を表示する(S106)。この処理を実行することにより、リアルタイムに更新される第2ディスプレイ2に表示されている映像等の一部又は全部の領域を第1ディスプレイ160に出力することができる。
Next, the
例えば、ユーザが腕の位置を動かした場合には、S100において、慣性センサ100が腕の動きを感知し、それに合わせて第1ディスプレイ160に出力されている第2ディスプレイ2の映像等の領域、姿勢の少なくとも一方を更新して出力する。この出力のために、S104において処理部14は、パラメータの更新演算を実行してもよい。
For example, when the user moves the position of the arm, in S100, the
図7は、ウェアラブルデバイス1の位置が各ディスプレイと平行に移動した場合を示す図である。上図の状態から、例えば、ユーザがウェアラブルデバイス1を向かって右側に移動させたとする。このような場合、下図に示すように、処理部14は、上記のパラメータを更新することにより再計算し、上図とは異なる第2ディスプレイ2の領域についての映像等を第1ディスプレイ160に表示させる。
FIG. 7 is a diagram showing a case where the position of the
上記の説明においては、静止した状態同士について示しているが、もちろん、移動中にも慣性センサ100の動きに基づいて、処理部14は、リアルタイムにパラメータを更新し、第1ディスプレイ160に表示する内容(第2ディスプレイ2の領域)をリアルタイムに変更してもよい。これは、左右方向だけではなく、上下方向に対しても同様の処理をすることが可能である。
In the above description, the stationary states are shown, but of course, the
図8は、第1ディスプレイ160に出力される第2ディスプレイ2の一部の領域の一例を示す図である。例えば、第2ディスプレイ2には、ペット型のロボットの映像が表示されているとする。この場合、図7の上図のように第1ディスプレイ160を位置させると、上図のように、例えば、第2ディスプレイ2の中央あたりの映像等が第1ディスプレイ160に出力される。
FIG. 8 is a diagram showing an example of a part of the area of the
そして、ユーザが第1ディスプレイ160を図7の下図のように向かって右側に移動させると、図8の下図に示すように、第1ディスプレイ160に表示される第2ディスプレイ2の領域がその動きに伴って変化する。そして、第1ディスプレイ160には、例えば、第2ディスプレイ2の上下方向ほぼ中央の右寄りの映像等が出力される。
Then, when the user moves the
このように、例えば、第2ディスプレイ2と比較して狭い表示領域を有する第1ディスプレイ160を用いて、より広い領域を有する仮想ディスプレイの情報を出力することが可能となる。ユーザは、見たいコンテンツが存在する方向へウェアラブルデバイス1(第1ディスプレイ160)を移動させることにより、出力される領域を変更して、その移動方向に対応した映像等を見ることができる。
In this way, for example, the information of the virtual display having a wider area can be output by using the
また、一例として、第1ディスプレイ160の表示領域が第2ディスプレイ2の外側を含む領域である場合、パディングした表示、例えば、空白表示を当該外側の領域に行ってもよい。別の例として、第2ディスプレイ2の端から外側が含まれる領域まで第1ディスプレイ160が移動した場合には、第2ディスプレイ2の端の領域でとどまるように、第1ディスプレイ160に表示をしてもよい。
Further, as an example, when the display area of the
図9は、ウェアラブルデバイス1の位置が各ディスプレイと垂直に移動した場合を示す図である。上図の状態から、例えば、ユーザがウェアラブルデバイス1を自分に近づける方向に移動させたとする。このような場合、下図に示すように、処理部14は、上記のパラメータを更新することにより再計算し、上図とは画角の異なる第2ディスプレイ2の領域についての映像等を第1ディスプレイ160に表示させる。
FIG. 9 is a diagram showing a case where the position of the
上記の説明においては、静止した状態同士について示しているが、上記と同様に、移動中にも慣性センサ100の動きに基づいた画像を処理部14が生成して、リアルタムに第1ディスプレイ160の出力を更新してもよい。これは、近づく方向だけではなく、遠ざかる方向に対しても同様の処理をすることが可能である。
In the above description, the stationary states are shown, but similarly to the above, the
図10は、第1ディスプレイ160に出力される第2ディスプレイ2の一部の領域の一例を示す図である。図9の上図のように第1ディスプレイ160を位置させると、図8の上図と同様に、例えば、第1ディスプレイ160には、第2ディスプレイ2の中央付近の映像等が出力される。
FIG. 10 is a diagram showing an example of a part of the area of the
そして、ユーザが第2ディスプレイ2を図9の下図のように自らに向かって近づくように移動させると、図10の下図に示すように、第1ディスプレイ160には、例えば、第2ディスプレイ2の位置は変わらないが、より広い範囲を出力するように映像等が出力される。もっとも、この図10においては、第1ディスプレイ160の大きさが変わるように描かれているが、第1ディスプレイ160自体の大きさが固定である場合には、上図と同じ大きさの領域に、縮小されたより広い領域が出力される。
Then, when the user moves the
また、一例として、第1ディスプレイ160とユーザの距離が所定距離よりも近い場合には、第1ディスプレイ160に、第2ディスプレイ2の全部の領域を表示するようにしてもよい。この場合、周りをパディングして第2ディスプレイ2を縮小率に合わせて表示させてもよいし、第2ディスプレイ2の横幅又は縦幅が第1ディスプレイ160に収まったタイミングから固定した表示としてもよい。
Further, as an example, when the distance between the
上記の2パターンは、混合することも可能である。すなわち、ウェアラブルデバイス1は、ディスプレイに対して平行な成分と、垂直な成分とを有して移動してもよい。上記のように処理部14が処理をして第1ディスプレイ160に第2ディスプレイ2の一部又は全部の領域を描画することにより、ユーザ(の第1所定位置W)に対して、第2ディスプレイ2の表示領域の大きさが変わらないように表示をすることが可能である。
The above two patterns can be mixed. That is, the
上記の例では、第2ディスプレイ2の大きさが変わらないとしたが、これには限られない。例えば、ユーザが最初に第1ディスプレイ160を介して第2ディスプレイ2の表示を見始めた点を基準として、上下左右、及び、垂直方向の動きに対して第1ディスプレイ160に出力される移動量を強調、抑制した表示をしてもよい。例えば、ユーザがウェアラブルデバイス1を動かした距離以上に、上下左右、垂直方向に映像を動かしてもよい。逆に、ユーザがウェアラブルデバイス1を動かしたよりも少なく、上下左右、垂直方向に映像を動かしてもよい。これは、混合することも可能である。例えば、左右方向に強調し、上下方向に抑制、又は、平行方向には強調し、垂直方向には抑制等、種々の混合方法を用いてもよい。
In the above example, the size of the
以上のように、本実施形態によれば、ウェアラブルデバイス1は、仮想的に定義されたディスプレイの一部又は全部の領域を実際のディスプレイを介して閲覧することが可能となる。さらに、実際のディスプレイを自由に動かすことにより、仮想的なディスプレイの映し出される領域等を変更することが可能となる。例えば、GPS(Global Positioning System)に基づいた地図を仮想ディスプレイに表示しておき、実ディスプレイにおいて、この地図の任意の位置を閲覧したり、この表示を拡大、縮小したりした映像等を、ユーザは見ることが可能となる。
As described above, according to the present embodiment, the
このように、ユーザの視点としては、ウェアラブルデバイスの実ディスプレイと仮想ディスプレイの位置関係によって、実ディスプレイの表示内容を変更する装置が実現できる。このウェアラブルデバイスによれば、仮想ディスプレイは、例えば、ユーザの胸といった、ユーザに依存した位置に対して固定位置に配置されているため、ユーザは、常に自分の前方に存在している仮想ディスプレイを窓から覗いて見るような体験をすることが可能となる。本実施形態のウェアラブルデバイスによれば、例えば、スマートフォンよりも小さい表示領域ではあるが、擬似的にスマートフォンと同程度以上の広い領域を有するディスプレイを実現することができる。すなわち、スマートフォンのディスプレイと同程度の情報量を有するとともに、コンテンツのサイズも同程度とすることが可能となる。 As described above, from the user's point of view, it is possible to realize a device that changes the display content of the real display depending on the positional relationship between the real display and the virtual display of the wearable device. According to this wearable device, the virtual display is placed in a fixed position with respect to a user-dependent position, for example, the user's chest, so that the user always has a virtual display that is in front of him. It is possible to have an experience like looking through a window. According to the wearable device of the present embodiment, for example, it is possible to realize a display having a display area smaller than that of a smartphone but having a wide area that is substantially the same as that of a smartphone. That is, it has the same amount of information as the display of a smartphone, and the size of the content can be the same.
ウェアラブルデバイスが腕時計型である場合には、さらに、腕につけている、及び、人間の骨格から位置、姿勢を限定するという拘束条件を設定することが可能である。この拘束条件に基づき、位置、姿勢等の探索空間を限定することが可能であり、その計算を簡略化して、よりインタラクティブな表示を行うことが可能となる。 When the wearable device is a wristwatch type, it is possible to further set a constraint condition that the wearable device is attached to the arm and the position and posture are limited from the human skeleton. Based on this constraint condition, it is possible to limit the search space such as position and posture, simplify the calculation, and perform more interactive display.
また、上記の図7、図8の例においては、移動方向と同じ方向と動くものとしたが、場合により逆方向に動くように表示内容を変更してもよい。例えば、第1ディスプレイ160と第2ディスプレイ2の第1所定点Wに対する位置が逆転することがあってもよい。この場合、第1ディスプレイ160は、第2ディスプレイ2よりもユーザから奥にあると、ユーザが感知することができるように、第1ディスプレイ160が右に動くと、第2ディスプレイ2の左側の領域に移動するように表示をさせてもよい。このように出力することにより、ユーザは、第2ディスプレイ2に焦点をおいていることをより強く感知することが可能となる。このように、運動視差に基づいて、直感的な操作を実現できるようにしてもよい。上下方向も同様に、カメラのピッチ角度を変更する直感的な操作に合わせて、第1ディスプレイ160と第2ディスプレイ2の移動の方向を逆方向としてもよい。
Further, in the above examples of FIGS. 7 and 8, the display content is assumed to move in the same direction as the moving direction, but the display content may be changed so as to move in the opposite direction depending on the case. For example, the positions of the
なお、第2ディスプレイ2に初期に表示されている映像等は、任意である。例えば、ウェブブラウザを表示してもよいし、地図を表示してもよいし、又は、特定のアプリケーションを表示してもよい。これに対してユーザが入力インタフェースを介して入力をすることにより、任意のアプリケーションを実行させてもよい。入力インタフェースの例は、後述の実施形態において説明する通りである。上述したように、第2ディスプレイ2は、スマートフォン等と同等以上の表示領域を有することができるため、当該仮想ディスプレイに描写する映像等は、任意のものであり、適切に第1ディスプレイ160に第2ディスプレイ2の領域の一部又は全部が表示できる態様であれば、本開示の技術内容に含まれる点に留意されたい。
The image or the like initially displayed on the
(第2実施形態)
上記では、任意の状態から第1ディスプレイ160への表示を開始するものとしたが、これには限られない。例えば、ユーザによる所定ジェスチャを慣性センサ100により感知して、この所定ジェスチャにより、各ディスプレイへの表示を開始してもよい。
(Second embodiment)
In the above, it is assumed that the display on the
例えば、ユーザは、腕を振り上げてその後に腕時計を見るような位置にウェアラブルデバイス1を移動させることにより、描画のスタートとしてもよい。この所定ジェスチャは、慣性センサ100により感知された情報に基づいて判断される。例えば、慣性センサ100は、重力加速度に対して、急激な上方向への加速度の印加から、急激な下方向への加速度の変化を感知することにより、トリガされて処理を開始してもよい。そして、重力加速度に対して静止した点において、第2所定点Rを定義し、上記の流れにしたがって、第1所定点W等を設定して、その後の処理を実行してもよい。
For example, the user may start drawing by moving the
このように、所定のジェスチャを第1ディスプレイ160への出力の開始のフラグとしてもよい。また、ジェスチャは、開始にとどまらず、アプリケーションの終了等に対応していてもよい。さらに、ジェスチャにより、任意のアプリケーションの起動、また、アプリケーションにおける任意の処理を処理部14が実行してもよい。このように、処理部14は、慣性センサ100が感知した情報に基づいてジェスチャ情報を取得し、このジェスチャ情報にしたがった任意の処理が実行できる構成であってもよい。
In this way, a predetermined gesture may be used as a flag for starting output to the
所定ジェスチャは、腕の振り上げに限定されるものではない。例えば、ユーザがウェアラブルデバイス1を装着している腕を振ることを開始のジェスチャとしてもよいし、これには限られず、人間が自然に実行できるジェスチャであればどのようなものであってもよい。さらには、ユーザが開始を含めた各処理のジェスチャを任意に設定できる構成としてもよい。もちろん、この場合も、ジャイロセンサ等を用いて、所定範囲の姿勢にウェアラブルデバイス1が静止していることを感知して処理を開始させてもよい。第1ディスプレイ160への表示も特別なものではなく、このジェスチャの感知による処理の一種として実行することが可能である。
The predetermined gesture is not limited to raising the arm. For example, the gesture may start with the user wearing the
例えば、静止した状態を開始姿勢として、前述の第1実施形態で説明したように、画面の上下左右、及び、奥行き方向の処理を行ってもよい。この上下左右方向の移動及び奥行き方向の移動も、一種のジェスチャとしてみなすことができる。すなわち、任意のジェスチャにより、当該ジェスチャに対応する任意の処理を処理部14が実行してもよい。
For example, as described in the above-described first embodiment, processing may be performed in the vertical and horizontal directions of the screen and in the depth direction, with the stationary state as the starting posture. This movement in the vertical and horizontal directions and the movement in the depth direction can also be regarded as a kind of gesture. That is, the
(第3実施形態)
前述の第1実施形態、第2実施形態では、ウェアラブルデバイスは、入力として、慣性センサ、出力として実ディスプレイを備える構成であったが、これらには限られず、さらに多くの入出力インタフェースを備えていてもよい。
(Third Embodiment)
In the first embodiment and the second embodiment described above, the wearable device is configured to include an inertial sensor as an input and a real display as an output, but the wearable device is not limited to these and has many more input / output interfaces. You may.
図11は、第3実施形態に係るウェアラブルデバイス1の構成の一例を模式的に示すブロック図である。ウェアラブルデバイス1は、前述の実施形態の構成の他に、さらに、通信部18を備える。
FIG. 11 is a block diagram schematically showing an example of the configuration of the
入力部10は、慣性センサ100の他に、一例として、カメラ101、測距センサ102、タッチセンサ103、物理ボタン104、マイク105、心拍センサ106、筋電センサ107、体温センサ108、発汗センサ109、脳波センサ110、位置センサ111のうち、任意のものを、任意の組み合わせで備える。入力部10は、前述の実施形態で示したように、種々の処理を処理部14へと要求することが可能である。例えば、処理部14は、入力部10から取得した感知情報に基づいて、第1ディスプレイ160における第2ディスプレイ2の表示領域の位置、姿勢を変更したり、その他種々の処理を実行させたりすることができる。
In addition to the
処理部14は、処理の1つとして、各種センサからの情報に基づき、ユーザの意思によらずに自動的に各種処理を実行することができる。また、処理部14は、処理の1つとして、各種センサから取得したユーザの意思により入力された情報に基づき、ユーザが求める各種処理を実行することができる。すなわち、処理部14は、入力部10を介して取得した情報に基づいて、ユーザからの明示的な命令、又は、明示的ではない状態による種々の処理を実行することができる。
As one of the processes, the
出力部16は、第1ディスプレイ160の他に、スピーカ161、アクチュエータ162、発光素子163のうち、任意のものを、任意の組み合わせで備える。もちろん、入力部10の各構成要素との組み合わせも任意である。
In addition to the
さらに、図11のブロック図は、一例として示したものであり、入力部10及び出力部16の内部の構成要素は、全てが必須のものではなく、任意に搭載していてもよい。
Further, the block diagram of FIG. 11 is shown as an example, and the internal components of the
カメラ101は、周辺の環境を映像情報として取得するセンサである。カメラ101は、単数ではなく、複数備えられていてもよい。カメラ101は、例えば、ウェアラブルデバイス1のユーザ側(第1ディスプレイ160側)に備えられるインカメラであってもよいし、逆側に備えられるアウトカメラであってもよいし、これらの双方を備えていてもよい。また、これには限られず、複数のカメラ101がウェアラブルデバイス1の任意の方向の環境を取得するために備えられていてもよい。
The
カメラ101が複数である場合には、ユーザからの見た目が悪くならないように、微細穴構造のピンホールカメラ等の目立たない構成としてもよい。また、第1ディスプレイ160側にインカメラが備えられる場合には、ディスプレイの下側、すなわち、ディスプレイのユーザ側ではない面に、ディスプレイ発光素子の下側に備えられてもよい。この場合、カメラ101は、裏面受光素子又は表面受光素子の構成であってもよい。
When there are a plurality of
また、カメラ101は、ウェアラブルデバイス1に備えられるものであるが、通信部18を介した外部のカメラと通信を行い、当該カメラの情報をも利用するものであってもよい。
Further, although the
例えば、カメラ101としてインナーカメラを備える場合、前述の第1実施形態においては、慣性センサ100から取得した情報により判断していた第3所定点Eの位置及び姿勢を、画像又は映像情報として取得することができる。このようなカメラ101を用いることにより、ユーザの視点、視線方向等、より詳細なデータを取得することが可能である。例えば、式(2)に表される評価関数を用いた第3所定点Eの位置、姿勢を求める際に、顔画像の特徴点のデータを用いることができる。種々の状況におけるカメラ101により取得された画像の特徴点を訓練データとして機械学習を実行して学習済モデルを生成してもよい。もちろん、第1所定点Wの位置、姿勢に関する情報をより正確に取得することも可能である。ウェアラブルデバイス1は、これらの情報を、慣性センサ100のみ、カメラ101のみ、ではなく、双方のデータを総合して利用することにより取得してもよい。
For example, when the
また、図7、図9のような動きに対しても、カメラ101で画像情報を取得し、ユーザの目を特徴点の情報等から取得することにより、より精度のよい第1ディスプレイ160への出力のための変換を実現することが可能である。
Further, even for the movements shown in FIGS. 7 and 9, by acquiring the image information with the
さらに、第2実施形態で説明したジェスチャに関しても、慣性センサ100の感知情報ではなく、カメラ101が撮影した映像等の情報に基づいて取得することが可能となる。例えば、カメラ101を介して種々のジェスチャを撮影して、これを訓練データとして機械学習による学習済モデルを生成することができる。そして、処理部14は、この学習済モデルに映像等の情報を入力することにより、任意のジェスチャを読み出すことが可能となる。この場合、ウェアラブルデバイス1自体を動かすことなく、もう一方の腕、又は、顔の表情等、画像、映像として取得できる状態でジェスチャ入力をすることが可能となる。例えば、顔の方向を変えたり、又は、視線の方向を変えたりすることにより、第1ディスプレイ160へ出力する第2ディスプレイ2の領域、姿勢を変更できる構成としてもよい。
Further, the gesture described in the second embodiment can also be acquired based on the information such as the image taken by the
別の例として、カメラ101がインカメラとして備えられ、このインカメラにより人間の顔が検出されると、第1ディスプレイ160への出力を開始してもよい。さらには、カメラ101から取得した画像に基づいて顔認証を実行し、顔認証の結果に基づいて、第1ディスプレイ160への出力を行ってもよい。このようにインカメラを備えることにより、セキュリティを向上させることが可能となる。
As another example, the
このように、カメラ101としてインカメラを備えることにより、前述の第1実施形態の処理及び第2実施形態のジェスチャ処理をより明確に、精度よく実現することが可能となる。
As described above, by providing the in-camera as the
処理部14は、ジェスチャの入力を認識した場合には、当該ジェスチャの情報を第1ディスプレイ160に表示してもよい。この表示は、第2ディスプレイ2の表示と重畳して表示されるものであってもよいし、第1ディスプレイ160内の所定のウィンドウ内に表示されるものであってもよい。また、後述する出力部のいずれかにより、ジェスチャの入力が受け付けられたことをユーザに通知してもよい。このように、ユーザにジェスチャが入力されたことを明確に伝えてもよい。この結果、ユーザは、自らが入力したジェスチャが、適切にウェアラブルデバイス1に入力されているかを確認することができる。
When the
測距センサ102は、例えば、音波、赤外線等を用いたセンサであり、対象となる物体までの距離を測定するセンサである。この測距センサ102を例えば上記のインカメラの代わりに備えてもよい。例えば、慣性センサ100、カメラ101により第1所定点W、第3所定点Eの位置を取得する場合に、測距センサ102により、その第1所定点W又は第3所定点Eまでの距離をより正確に取得してもよい。
The
タッチセンサ103は、人間が触れることにより反応するセンサである。例えば、第1ディスプレイ160の表示面の上又は下にタッチセンサ103を備えるタッチパネルの構成としてもよいし、デバイスの側面に備えられ、指紋センサ、ボタン等として用いられてもよい。このタッチセンサ103を用いることにより、入力インタフェースのユーザビリティを向上することができる。
The
前述の実施形態においては、ジェスチャで各処理を入力するものとしたが、タッチセンサ103をさらに備えることにより、直感的、かつ、より高度な入力を実行することが可能となる。タッチセンサ103を介して、ユーザは、タップ、ダブルタップ、ドラッグ、フリック/スワイプ、ピンチイン/ピンチアウト等の種々の方法でウェアラブルデバイス1に処理の要求をすることが可能となる。さらには、タッチパネル上でドラッグをすることによるジェスチャ操作をすることもできる。例えば、第2ディスプレイ2に表示されている映像等に対して、文章にマーカをつけたり、拡大/縮小したり、地図にピン付けしたり、動画の再生/早送り/巻き戻しの処理を要求することが容易に可能となる。これらは一例として示したものであり、応用範囲は、これらには限られない。
In the above-described embodiment, each process is input by a gesture, but by further providing the
物理ボタン104は、物理的にオン/オフしたり、トリガしたり、又は、トグルしたりするスイッチとして機能する入力インタフェースである。この物理ボタン104を、例えば、電源スイッチ等として備えてもよい。また、上記のタッチセンサ103を物理ボタン104に代わる構成として備えていてもよいし、物理ボタン104上にさらにタッチセンサ103が備えられていてもよい。例えば、物理ボタン104は、上記のタッチセンサ103の説明で記載したような機能を発揮できる処理を、処理部14へと要求できるものであってもよい。
The
マイク105は、音を取得するセンサである。例えば、マイク105は、ユーザの音声及び周囲の環境音等を感知する。上記のジェスチャ等の代わりに、マイク105への音声入力を行ってもよい。音声入力を行う場合には、マイク105で感知した情報を処理部14が適切に処理をしてもよい。この処理には、機械学習により訓練された学習済モデルを用いてもよい。また、音声入力の他に、ユーザの笑い声を判断し、それに対応して第1ディスプレイ160の表示を変更してもよい。例えば、ユーザは、音声により、マイク105を介して、上述の種々の処理を処理部14へと通知できるものであってもよい。
The
心拍センサ106は、ユーザの心拍(又は脈拍)を取得する。この心拍センサ106の感知した情報に基づいて、処理部14は、ユーザの状態に基づいた処理を実行することができる。例えば、ユーザの心拍が所定心拍よりも高ければ、ユーザが運動等を行っているとして、第1ディスプレイ160に出力する表示を変更することができる。例えば、ユーザの心拍がジョギングをしていると判断される心拍であった場合には、処理部14は、第1ディスプレイ160の表示をしないと判断してもよい。例えば、ユーザの心拍が無酸素運動を行っていると判断される心拍である場合には、ワークアウト用のアプリケーションを起動し、当該アプリケーションを第2ディスプレイ2に表示させ、第1ディスプレイ160を介して適切にユーザが自らの状態をモニタできるような表示を出力してもよい。
The
筋電センサ107は、ユーザの筋肉に流れる電流を取得する。例えば、筋電センサ107は、ユーザの皮膚を流れる微弱な電流から、ユーザの筋肉に流れる電流を取得する。この筋電センサ107も、心拍センサ106と同様の利用方法で用いることができる。
The
体温センサ108は、ユーザの体温を取得する。この体温センサ108も、心拍センサ106と同様の利用方法で用いることができる。また、体温センサ108を用いることにより、ユーザが眠い状態等を取得してもよい。このような場合、処理部14は、第1ディスプレイ160を介して表示する第2ディスプレイ2の表示輝度を下げたり、ブルーライトを削減する色に変更(例えば、色温度を変更)したりしてもよい。
The
発汗センサ109は、ユーザの発汗状態を取得する。例えば、発汗センサ109は、ユーザの皮膚の湿り具合を感知することにより、ユーザの発汗状態を取得する。この発汗センサ109も同様に、ユーザの運動状態を知る1つのセンサとして機能してもよい。
The sweating
脳波センサ110は、ユーザの脳波の状態を取得する。例えば、脳波センサ110は、筋電センサ107と同様に、ユーザの皮膚を流れる微弱な電流から脳波を推定する。この推定は、例えば、種々の軽い運動をしている状態に基づいたデータを取得し、取得したデータを訓練データとして機械学習により最適化された学習済モデルにより実現されてもよい。例えば、脳波センサ110は、眼鏡型のウェアラブルデバイス1に搭載される。一例として、ウェアラブルデバイス1の眼鏡のテンプルにこめかみに接触するよう、耳の裏に接触するよう、又は、眼鏡のパッドにおいて鼻に接触するように備えられる電極であってもよい。
The
これら心拍センサ106、筋電センサ107、体温センサ108、発汗センサ109及び脳波センサ110は、例えば、リラックスしている、歩行している、走行している等のユーザの運動状態を取得するのみならず、ユーザの感情、体調、筋疲労等を取得するものとして機能してもよい。処理部14は、これらの処理を適切に実行できるような学習済モデルを備えていてもよいし、統計的に取得されたデータによるルールベースに基づいて判断を実行してもよい。さらに、処理部14は、マイク105により感知されたユーザの音声に基づいて、このようなユーザの感情、体調等を取得してもよい。
If the
取得したユーザの運動状態、感情、体調等に基づいて、例えば、処理部14は、第1ディスプレイ160に出力する映像等を適切に切り替えたり、また、出力部16の他の構成要素から適切な情報を出力したりしてもよい。
Based on the acquired user's motor state, emotions, physical condition, etc., for example, the
位置センサ111は、例えば、GPSを備える。位置センサ111は、ウェアラブルデバイス1の位置を感知して出力する。この位置センサ111により取得された情報に基づいて、処理部14は、例えば、第2ディスプレイ2に地図を表示させてもよい。ユーザは、第1ディスプレイ160を介して、この地図を閲覧することが可能である。また、位置センサ111は、GPSには限られず、wi-fi(登録商標)、ビーコン等の電波を受信して当該電波に含まれる情報から位置を取得するセンサであってもよい。また、位置センサ111は、相対的な位置を取得するセンサであってもよく、この場合、慣性センサ100と合わせて、前述の実施形態の運動視差や腕の動きに対応した処理を、処理部14が実行することも可能である。
The
出力部16は、前述のように第1ディスプレイ160を介して第2ディスプレイ2の一部又は全部の領域を表示可能とする。そして、例えば、ユーザの動作、ジェスチャ等のフィードバックを出力するフィードバック処理部が備えられていてもよい。フィードバック処理部として、スピーカ161、アクチュエータ162(バイブレータ)、発光素子163が備えられてもよい。もちろん、これらスピーカ161等は、フィードバックだけではなく、一般的な出力部として機能してもよい。
As described above, the
スピーカ161は、音の情報を出力することによりユーザへと出力を行う。
The
アクチュエータ162は、ウェアラブルデバイス1の筐体を振動させることによりユーザへと出力を行う。
The
発光素子163は、第1ディスプレイ160に備えられる発光素子とは別途備えられるLED(Light Emitting Diode)等であり、発光することによりユーザへと出力を行う。
The
フィードバック処理部として機能する場合、これらの出力部16の構成要素は、ユーザからの入力に対するフィードバック処理を実行する。例えば、フィードバック処理部は、ユーザからの入力が正常に取得された場合と、正常に取得されなかった場合とについて、異なる出力をしてもよい。フィードバック処理部は、例えば、正常/異常の場合に、それぞれ異なる音を発したり、異なる振動を出力したり、異なる発光方法で発光したりする。これには限られず、ユーザが入力したジェスチャに基づいたフィードバック出力をしてもよい。例えば、第1ジェスチャに対してと、第1ジェスチャと異なる第2ジェスチャに対してと、異なるフィードバックを実行してもよい。
When functioning as a feedback processing unit, the components of these
ウェアラブルデバイス1は、さらに、通信部18を備える。通信部18は、外部のデバイス、サーバ等と、有線又は無線の手段により通信を行うインタフェースである。例えば、ウェアラブルデバイス1は、通信部18を介してサーバと接続される。
The
ウェアラブルデバイス1は、通信部18を介して、サーバから種々の情報を取得することが可能である。例えば、第2ディスプレイ2に地図情報を仮想的に出力する場合には、位置センサ111から取得した位置情報に基づいて外部のサーバからこの地図情報を取得してもよい。もっとも、記憶部12に地図情報が格納されていてもよいし、サーバから通信部18を介して取得した地図情報を記憶部12に格納してもよい。
The
また、ファームウェアの更新、種々のデータ等の更新を、通信部18を介したサーバにより実行してもよい。
Further, the firmware may be updated and various data may be updated by the server via the
さらに、前述の実施形態における各所定点の位置、姿勢等の演算を、サーバ側で実行してもよい。すなわち、処理部14は、通信部18を介して各種センサからの感知情報をサーバへと送信し、通信部18を介してサーバにて処理した情報を受信してもよい。そして、サーバから受信した位置、姿勢の情報に基づいて、第1ディスプレイ160に出力する第2ディスプレイ2の領域、姿勢等を演算してもよいし、さらには、これらの演算を実行したデータそのものをサーバから取得してもよい。このように、各種演算は、処理部14ではなく、適切に外部のサーバで実行されてもよい。
Further, the calculation of the position, posture, etc. of each predetermined point in the above-described embodiment may be executed on the server side. That is, the
例えば、ウェアラブルデバイス1は、ユーザによりBluetooth(登録商標)等によりスマートフォンとペアリングされてもよく、このスマートフォンをサーバとして利用することもできる。このように、ユーザのプライバシーを考慮した構成とすることもできる。
For example, the
通信の状況及び計算機の計算能力に基づいて、適切に処理部14が処理を割り振ってもよいし、ユーザが明示的にいずれで処理するかを選択できるものであってもよい。また、処理部14で処理する演算と、サーバで処理する演算があらかじめ定義され、この定義に基づいて適切な場所で演算を実行できる構成としてもよい。すなわち、種々のデータの解析、及び、データの処理は、適切に処理部14、又は、サーバのいずれかで実行されてもよい。
The
通信部18は、例えば、サーバと接続されるものとしたが、これには限られない。例えば、サーバと接続された上で、他のユーザのデバイスと接続されてもよい。また、サーバを介さずに、他のデバイスと接続されてもよい。ウェアラブルデバイス1は、例えば、通信部18を介して、インターネットを用いて他のデバイスとP2P接続されてもよいし、又は、アドホックネットワークを形成して他のデバイスとP2P接続されてもよい。
The
別の例として、通信部18を介して、他のデバイスとの相対的な位置を検知することにより、第2ディスプレイ2又は第1ディスプレイ160に表示する映像等を切り替える処理を行ってもよい。このような処理を行うことにより、ウェアラブルデバイス1において、第2ディスプレイ2に他のデバイスを仮想的に表示したり、他のデバイスの位置に仮想的なオブジェクトを配置したりといった、他のデバイスとの位置関係によるAR機能を拡充することができる。
As another example, a process of switching an image or the like to be displayed on the
以上のように、ウェアラブルデバイス1は、前述の第1実施形態及び第2実施形態の構成には限られず、種々のインタフェース、又は、構成要素を備えていてもよい。入力部10として種々のセンサを備えることにより、第1ディスプレイ160に表示する第2ディスプレイ2の表示内容、表示方法を幅広く処理することが可能となる。出力部16として種々のモジュールを備えることにより、入力部10が取得した情報の出力方法に幅広く対応することが可能となる。また、通信部18を備えることにより、通信を実行してよりユーザビリティを向上させることが可能となる。
As described above, the
(第4実施形態)
前述の実施形態においては、種々の入出力インタフェースについて記載したが、本実施形態では、第1ディスプレイ160、第2ディスプレイ2の他の形態について説明する。
(Fourth Embodiment)
In the above-described embodiment, various input / output interfaces have been described, but in the present embodiment, other embodiments of the
第1ディスプレイ160は、平面状のディスプレイであるとしたが、これには限られない。例えば、第1ディスプレイ160は、腕時計型のウェアラブルデバイス1の外側に備えられるものとは限られず、内側に備えられていてもよいし、曲面として備えられていてもよいし、全周に亘り備えられるものであってもよい。また、他の形態として、第1ディスプレイ160は、折りたたみ型であってもよいし、また、外部へ発光する発光部を備え、ユーザの手の甲等に映像等を投影するものであってもよい。
The
また、別の例として、第1ディスプレイ160は、3Dディスプレイであってもよい。例えば、微細なホールアレイを備え、当該ホールアレイを構成するホールのそれぞれから適切な微弱なコヒーレント光を出力することにより、光の干渉を用いて空間にプロジェクションするもの(ライトフィールドディスプレイ)であってもよい。また、ホログラフィ、液体凸レンズ、レーザーの網膜直接投射によりユーザに第2ディスプレイ2の内容を出力するものであってもよい。
Further, as another example, the
第2ディスプレイ2の形状は、仮想的に実現されるものであるので、第1ディスプレイ160よりもさらに柔軟な形状とすることが可能である。例えば、第2ディスプレイ2は、前述のように平面状であってもよい。また、第2ディスプレイ2は、広義のディスプレイとして、3Dの仮想現実空間を実装するものであってもよい。この場合、映像等は、当該空間に配置されたオブジェクト、背景等のことであってもよい。
Since the shape of the
例えば、形状、大きさは任意であってもよい。第2ディスプレイ2は、縦長、横長の長方形、円、多角形、円環等の任意の形状であり、スマートフォンのサイズ、新聞紙のサイズ等の任意の大きさであってもよい。
For example, the shape and size may be arbitrary. The
例えば、2次元的ではなく、3次元的な形状であってもよい。例えば、L字型、曲面、多面体の各面、球、ユーザを中心として円柱、立方体、ドーム型等であってもよい。 For example, it may have a three-dimensional shape instead of a two-dimensional shape. For example, it may be an L-shape, a curved surface, each face of a polyhedron, a sphere, a cylinder centered on the user, a cube, a dome shape, or the like.
例えば、1つではなく分離した複数の構成であってもよい。例えば、奥行き方向にウィンドウ又はタブが並べられていたり、ユーザの体の周囲に任意に並べられたりしてもよい。例えば、ジェスチャ入力用のリモコン、キーボードを示す第2ディスプレイ2がユーザの近くにあり、それより遠方に、画面型の第2ディスプレイ2が存在していてもよい。
For example, it may be a plurality of separated configurations instead of one. For example, windows or tabs may be arranged in the depth direction, or may be arbitrarily arranged around the user's body. For example, a remote controller for gesture input and a
上述したように、ディスプレイではなく3Dのオブジェクトであってもよい。オブジェクトは、例えば、目覚まし時計、テレビ、ラジオ、本、ゲーム機等の任意の物体であってもよい。 As mentioned above, it may be a 3D object rather than a display. The object may be any object, for example, an alarm clock, a television, a radio, a book, a game console, or the like.
また、アプリケーションやコンテンツ側から第2ディスプレイ2の形状、位置が動的に変更されるものであってもよい。例えば、映画を見る場合には21:9のディスプレイであってもよいし、ウェブブラウザ閲覧用に縦長であり、さらには、別の形状のブックマーク領域が円環で手前にあってもよい。例えば、ゲームにおける主人公の状態、毒状態、暗闇状態により暗くなったり狭くなったりする変化をしてもよい。例えば、地球儀アプリケーションを呼び出した場合には、第2ディスプレイ2は、球状の形状へ変形してもよい。
Further, the shape and position of the
また、ユーザの状態により第2ディスプレイ2の形状、位置等を動的に変更してもよい。例えば、リラックスしている状態では、大きく目の前にあり、座っている場合は下似合ってもよい。歩行時には、小さいディスプレイであってもよいし、走行時は、ランニングフォームに適したミニマムなディスプレイと変形してもよい。
Further, the shape, position, etc. of the
第2ディスプレイ2の外側の領域には、任意の内容を表示してもよい。例えば、ブルースクリーンであってもよいし、外側のカメラ101により取得した外部の映像を映し出してもよいし、あらかじめ定義されている仮想空間、テーマを表示してもよい。
Any content may be displayed in the area outside the
処理部14は、適切に第2ディスプレイ2における映像等を変換し、第1ディスプレイ160に出力する。もちろん、前述したように、ジェスチャやユーザからの命令により、処理部14は、適切に第1ディスプレイ160に投影する第2ディスプレイ2の領域及び姿勢を計算して出力する。
The
処理部14は、第3所定点Eの原点や軸の設定により、第1ディスプレイ160に投影される映像等の変換を適切に実行する。この場合、前述で説明した投影変換方法を適切なものへと代えて実行してもよい。また、投影誤差の安定化の補正をしてもよい。例えば、第1ディスプレイ160に表示されるべき映像等において、エイリアスが発生する場合には、種々のアンチエイリアス手法(例えば、平滑化)を用いて映像等を補正してもよい。これは、前述の各実施形態においても適用できる処理である。
The
以上のように、第1ディスプレイ160、第2ディスプレイ2は、平面状のディスプレイであるとは限られず、任意の形状、大きさのディスプレイであってもよい。処理部14により適切に変換を行うことにより、例えば、ウェアラブルデバイス1の動きに対応して第1ディスプレイ160に第2ディスプレイ2の一部又は全部を適切に表示することが可能となる。
As described above, the
(第5実施形態)
本実施形態においては、ジェスチャの入力の例について説明する。ジェスチャの入力は、第1ディスプレイ160に対するジェスチャであってもよいし、第2ディスプレイ2に対するジェスチャであってもよい。また、上述したように、ユーザがみずからのからだを動かすことによるジェスチャであってもよいし、タッチパネル等への一般的なジェスチャ入力であってもよい。
(Fifth Embodiment)
In this embodiment, an example of gesture input will be described. The gesture input may be a gesture for the
図12は、第1ディスプレイ160へのジェスチャ入力の例を示す図である。例えば、第1ディスプレイ160がタッチパネルである場合、第1ディスプレイ160の表示面をタッチすることにより、ジェスチャ入力(タップ等の操作を含む)をすることが可能である。これは、一般的なスマートフォン等のデバイスと同様である。
FIG. 12 is a diagram showing an example of gesture input to the
図13は、第2ディスプレイ2へのジェスチャ入力の例を示す図である。例えば、ウェアラブルデバイス1は、第1ディスプレイ160とは反対側の状態を取得するカメラ101を備える。このカメラ101によりユーザの指が検出された場合に、このユーザの指を第2ディスプレイ2の表示に重ねて第1ディスプレイ160へと出力してもよい。
FIG. 13 is a diagram showing an example of gesture input to the
処理部14は、ユーザの指が第2ディスプレイ2の距離にあると判断する場合に、ジェスチャ入力を可能としてもよい。第2ディスプレイ2の距離とは、正確に平面等を示すものではなく、ディスプレイのある平面からある範囲の距離を許容範囲としてもよい。図13では、指がコンテンツと重なり、重なっている部分が見えなくなっているがこれには限られない。
The
図14は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図14に示すように、第2ディスプレイ2に表示されている映像等の情報を隠さないように、指を半透明にして第1ディスプレイ160に表示してもよい。また、透明度を代えるのではなく、ユーザの指の色を変更して、第1ディスプレイ160に表示してもよい。
FIG. 14 is a diagram showing another example of gesture input to the
図15は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図15に示すように、第2ディスプレイ2に表示されている映像等に重ねて、アバターを適用したユーザの指を第1ディスプレイ160に表示してもよい。
FIG. 15 is a diagram showing another example of gesture input to the
図16は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図16に示すように、第2ディスプレイ2に指を表示せずに、ユーザの指の位置を指し示すアイコンやカーソルを第1ディスプレイ160に表示してもよい。
FIG. 16 is a diagram showing another example of gesture input to the
図17は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図17に示すように、第2ディスプレイ2に指を表示せずに、ユーザの指の位置を指し示すアイコンを第1ディスプレイ160に表示してもよい。ここで、例えば、図16の状態において、インカメラにより取得されたユーザの顔が笑顔になった、ウインクをした、等の所定の表情となった場合に、アイコンを変化させてもよい。例えば、ユーザの顔が笑顔になったと判断された場合に、図16の状態から図17の状態へとアイコンが変更されてもよい。
FIG. 17 is a diagram showing another example of gesture input to the
これらの処理は、例えば、処理部14が、カメラ101が取得した画像に基づいて、ユーザの指を検出し、この検出結果に基づいて、指先の指し示す位置に上記のようなアバター等の処理を実行する。
In these processes, for example, the
また、ジェスチャは、指の位置だけではなく、例えば、指で空中をつまむ動作をしたり、手を払ったり、手を握ったり、又は、デコピンの動作をしたりすることにより、各種ジェスチャとして認識されるように設定してもよい。各ジェスチャに対する処理は、あらかじめ記憶部12に記憶され、処理部14により適切な処理がされてもよい。
In addition, gestures are recognized as various gestures not only by the position of the finger, but also by, for example, pinching the air with the finger, wiping the hand, holding the hand, or performing the deco pin movement. It may be set to be done. The processing for each gesture may be stored in the
第2ディスプレイ2に対してタッチ動作等のジェスチャを実行する場合には、ユーザは、仮想的なディスプレイに対して位置決めをしなくてはならず、ディスプレイの位置を認識することが困難である。そこで、前述の実施形態において説明したフィードバック処理部の各構成により、ユーザが仮想的なディスプレイに接触したことを通知してもよい。例えば、音を出したり、ウェアラブルデバイス1を振動させたりすることにより、ユーザに通知してもよい。
When performing a gesture such as a touch operation on the
図18は、ディスプレイに対する視線方向で位置を指定する場合の一例を示すである。例えば、処理部14は、インカメラにおいて取得されたユーザの視線方向に基づいて、ユーザが第2ディスプレイ2のどの位置を見ているかを推定する。この推定結果に基づいて、ポインタを第1ディスプレイ160に表示してもよい。視線方向の推定は、上述の種々の推定と同様に、多数の訓練データを用いて機械学習により最適化した学習済モデルを用いてもよいし、統計的に得られたルールベースに基づいたモデルを用いて実行されてもよい。
FIG. 18 shows an example of a case where the position is specified in the line-of-sight direction with respect to the display. For example, the
図19は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図19に示すように、第1ディスプレイ160が手の甲へのプロジェクションである場合に、手の甲へのジェスチャを第1ディスプレイ160に第2ディスプレイ2の表示に重ねて表示してもよい。この場合、第1ディスプレイ160として機能する発光部を手の甲側へと備えるとともに、手の甲の方向の情報を取得するカメラ101を備える。そして、処理部14は、このカメラ101により取得した画像からユーザの指を検出し、第1ディスプレイ160へと第2ディスプレイ2の映像等に重ねて表示する。
FIG. 19 is a diagram showing another example of gesture input to the
これらのジェスチャ入力には、カメラ101を利用するとしたが、測距センサ102を併せて利用してもよい。測距センサ102からの情報を取得することにより、例えば、ユーザの指が第2ディスプレイ2の位置にあることをより正確に取得することが可能となる。
Although the
また、ジェスチャは、ディスプレイに対するものに限定されるものではない。例えば、ユーザのウェアラブルデバイス1を装着している、若しくは、装着していない手の甲、掌、指、又は、ユーザの顎、頬、耳、額、頭部、髪の毛等の顔の一部、さらには、ユーザの太腿、胸等のからだの他の箇所、へのジェスチャを取得するものであってもよい。その他一般的なジェスチャである、手の形、指先の軌跡、視線、瞬き、表情等を用いたジェスチャであってもよい。
Also, gestures are not limited to those for displays. For example, the back of the hand, palm, fingers, or part of the face such as the user's chin, cheeks, ears, forehead, head, hair, etc., with or without the user's
もちろん、入力は、ジェスチャ以外の方法で実行することもできる。このジェスチャ以外の方法に、一般的なユーザインタフェースとして認知されている入力方法を組み合わせて用いてもよい。例えば、上述した物理ボタン104を用いたり、マイク105、又は、他のセンサによる生体信号を取得したりして、種々の状況を読み取ってもよい。
Of course, the input can also be performed by methods other than gestures. An input method recognized as a general user interface may be used in combination with a method other than this gesture. For example, various situations may be read by using the above-mentioned
図20は、ジェスチャによる処理の一例を示す図である。前述した実施形態においては、ウェアラブルデバイス1の位置により第1ディスプレイ160に表示されている第2ディスプレイ2の領域等を変更する例について説明したが、表示する領域を変更する方法は、これには限られない。例えば、図20に示すように、第2ディスプレイ2をユーザが指でつまむジェスチャをし、第2ディスプレイ2を移動させることも可能である。図20のように動かした場合、第1ディスプレイ160に表示される内容は、例えば、処理部14により、図8のように変換される。
FIG. 20 is a diagram showing an example of processing by gesture. In the above-described embodiment, an example of changing the area of the
例えば、第2ディスプレイ2を手で摘まんでいる状態では、フィードバック処理部は、所定の音を出し続けたり、振動し続けたりしてもよいし、つまんだ状態に遷移したことをフィードバックによりユーザに通知してもよい。
For example, when the
図21は、ジェスチャによる処理の一例を示す図である。もちろん、図21のように、第2ディスプレイ2をユーザに近づけたり、遠ざけたりする処理をジェスチャで実行することも可能である。この場合、処理部14により第1ディスプレイ160に表示される内容は、図10のように変換される。
FIG. 21 is a diagram showing an example of processing by gesture. Of course, as shown in FIG. 21, it is also possible to perform a process of moving the
これらの変換は、例えば、式(13)におけるW VMの固定値を変更することにより対応することが可能である。 These transformations, for example, can be accommodated by changing the fixed value W V M in the formula (13).
ユーザは、任意の位置で第2ディスプレイ2の移動を終了することができる。終了のジェスチャは、例えば、手をつまんだ状態からそれ以外の状態へと遷移させることにより実現されてもよい。
The user can end the movement of the
このように、第2ディスプレイ2の位置を所定の位置から変更することも可能である。この場合、第2ディスプレイ2が体に近すぎると、コンテンツが見づらくなる可能性がある。このため、処理部14は、所定距離以内には第2ディスプレイ2が近づけないようにしてもよい。第2ディスプレイ2が所定距離に到達した場合には、フィードバック処理部により、所定のフィードバック通知を行ってもよい。また、一度設定した第2ディスプレイ2の距離は、次の起動時にも同じ設定から開始されるように、記憶部12に保存されてもよい。この場合、次の起動時には、処理部14は、記憶部12に保存されている、更新された状態のW VMを読み込むことにより、第1ディスプレイ160に適切に第2ディスプレイ2の映像等を出力することが可能となる。
In this way, it is also possible to change the position of the
第1ディスプレイ160、第2ディスプレイ2は、例えば、ウェアラブルデバイス1の位置に依存するが、腕時計型のウェアラブルデバイス1は、個人によりつける位置が異なる。このため、右利き、左利きようのジェスチャ認証が実行されるようにしておいてもよい。また、第1ディスプレイ160の向きも、外向き、内向きのいずれにも対応できるようにしておいてもよい。例えば、外向きでは手の甲に第1ディスプレイ160を投影してもよいし、内向きでは、掌に第1ディスプレイ160を投影してもよい。
The
第2ディスプレイ2にジェスチャを行う場合のフィードバックは、上記下のみならず種々の対応であってもよい。
The feedback when performing a gesture on the
例えば、触覚的なフィードバックとして、アクチュエータ162は、第2ディスプレイ2に接触したときにパルス的に振動させてもよい。そして、接触が続く場合には、継続的に振動をさせてもよい。また、ジェスチャが受け付けられたことを、示す所定の振動を、アクチュエータ162は、フィードバックにより通知してもよい。
For example, as tactile feedback, the
もちろん、このフィードバックは、聴覚的な刺激、すなわち、スピーカ161からの音の出力であってもよいし、視覚的な刺激、すなわち、発光素子163からの発光であってもよい。例えば、音色、周波数、音の長さを変えたり、発光の色、強度、間隔等を変えたりすることにより、種々のジェスチャに対応したフィードバックを実行することができる。
Of course, this feedback may be an auditory stimulus, that is, a sound output from the
以上のように、本実施形態において、実ディスプレイ、仮想ディスプレイの様々な形態について説明した。本実施形態に説明したように、実ディスプレイ、仮想ディスプレイは、平面状のディスプレイに限定されることなく、種々の形態をとることが可能である。また、仮想ディスプレイに接触した場合に、ユーザに、その接触状態をフィードバックすることにより、現実に存在しないディスプレイの操作等をより効率的に実現することが可能となる。 As described above, various forms of the real display and the virtual display have been described in the present embodiment. As described in the present embodiment, the real display and the virtual display are not limited to the flat display, and can take various forms. Further, when the virtual display is touched, the contact state is fed back to the user, so that the operation of the display that does not actually exist can be realized more efficiently.
(第5実施形態)
前述の各実施形態においては、第1ディスプレイ160は、第2ディスプレイ2の一部又は全部の領域を表示するものとしたが、これには限られない。例えば、第1ディスプレイ160は、通常の携帯型のディスプレイ付きデバイスのように、仮想ディスプレイを閲覧するのではなく、それ自身に独立したコンテンツを第1ディスプレイ160に直接的に表示することも可能である。
(Fifth Embodiment)
In each of the above embodiments, the
ウェアラブルデバイス1は、第1ディスプレイ160における表示を、独立コンテンツと、第2ディスプレイ2の映像等と、に切り替える機能を有していてもよい。例えば、運動している場合には、ユーザが明示的に手動で切り替え、又は、入力部10の各種センサからの感知情報により処理部14が自動で切り替えを行ってもよい。この他、ウェアラブルデバイス1は、ユーザが体を動かしづらい状況であったり、疲れている状況であったりする場合に、独立コンテンツを表示してもよい。この設定は、ユーザが自由に選択することも可能である。
The
ウェアラブルデバイス1は、第1ディスプレイ160の表示において、独立コンテンツを表示することを基本として、第2ディスプレイ2の映像等を表示するモードを備えていてもよい。逆に、ウェアラブルデバイス1は、第1ディスプレイ160の表示において、第2ディスプレイ2を表示することを基本として、第1ディスプレイ160に独立したコンテンツを表示するモードを備えていてもよい。すなわち、装置の機能としてデフォルトであるモードは、第1ディスプレイ160の独立コンテンツ表示モードであってもよいし、第2ディスプレイ2のコンテンツ表示モードであってもよい。
The
あるいは、これらの2つは、相互に全く独立したモードであり、並列に実行される関係性であってもよい。この場合、ユーザが、いずれのモードをデフォルトのモードに設定するかを選択できるものであってもよい。 Alternatively, these two modes may be completely independent of each other and may be related to being executed in parallel. In this case, the user may be able to select which mode is set as the default mode.
これらの表示モードは、上述したようにユーザのコンテキストに基づいて自動的に切り替えられてもよい。この切り替えは、例えば、慣性センサ100の感知情報に基づいて、処理部14によりユーザが家でリラックスしている状態であると判断した場合には、仮想ディスプレイ表示モード、ユーザが電車に乗っていたり、移動していたりすると判断した場合には、独立コンテンツ表示モードと切り替えてもよい。この他、入力部10の感知情報に基づいて処理部14が、ユーザが歩行している、走行している、筋疲労している、眼精疲労がうかがえる、といったようなコンテキストを検知した場合に、それぞれ適切な表示モードに切り替える処理を行ってもよい。
These display modes may be switched automatically based on the user's context as described above. This switching is performed, for example, when the
(第6実施形態)
前述の各実施形態において、ウェアラブルデバイス1は、基本的に腕時計型のデバイスであるとして説明したが、本開示の内容は、これに限定されるものではない。ウェアラブルデバイス1は、例えば、スマートフォン、タブレット型端末、指輪型端末、ゲーム機、デジタルカメラ、眼鏡型デバイス等であってもよい。
(Sixth Embodiment)
In each of the above-described embodiments, the
腕時計型ではないウェアラブルデバイス1では、処理部14のジェスチャ等の処理に用いていた拘束条件が使用できない場合がある。このため、第1ディスプレイ160に表示される第2ディスプレイ2の映像等と、第1ディスプレイ160の位置、姿勢との間に齟齬が生じる場合がある。これを回避するために、別の拘束条件を使用して、各数式のパラメータ等を設定してもよい。これは、ウェアラブルデバイス1に固有のパラメータとして、あらかじめ設定されるものでもよい。また、別の例として、初期起動時又は定期的にキャリブレーション等を実行してパラメータを再設定してもよい。さらに、別の例として、ウェアラブルデバイス1の持ち方等の利用方法を制限してもよい。
In the
例えば、スマートフォン型のデバイスである場合には、ウェアラブルデバイス1の持ち方に制限を加えてもよい。また、個々のユーザが、初期起動時、定期的又はユーザが自発的に操作することにより、デバイスの指示に従ってデバイスを把持したり移動させたりして、キャリブレーションを実行してもよい。
For example, in the case of a smartphone-type device, the way of holding the
例えば、指輪型や眼鏡型である場合には、腕に装着する場合と別の拘束条件を多く設定することが可能である。これらの拘束条件に基づいて、前述の数式等におけるパラメータをあらかじめ設定しておいてもよい。もちろん、この場合においても、初期起動時、定期的又はユーザが自発的に、キャリブレーションを実行してもよい。 For example, in the case of a ring type or a spectacle type, it is possible to set many different restraint conditions from the case of wearing it on the arm. Based on these constraint conditions, the parameters in the above-mentioned mathematical formulas and the like may be set in advance. Of course, even in this case, the calibration may be performed periodically or voluntarily at the time of initial startup.
指輪型のデバイスである場合、第1ディスプレイ160をウェアラブルデバイス1自体に備えてもよいし、第1ディスプレイ160として投影型のディスプレイとしてもよい。投影先は、任意の場所、例えば、机、壁、その他平面、装着していない手の甲、平といった場所であってもよい。もちろん、前述のように、ライトフィールドディスプレイ、網膜症社型のディスプレイとして機能してもよい。
In the case of a ring-type device, the
眼鏡型のデバイスである場合、眼鏡のレンズを第1ディスプレイ160として利用してもよい。第1ディスプレイ160として利用するレンズは、片目又は両目であってもよい。両方のレンズを第1ディスプレイ160として用いる場合には、両目の視差に基づいて、立体視できる映像等を出力してもよい。また、別の例として、異なるコンテンツを出力するようにしてもよい。
In the case of a spectacle-type device, the lens of the spectacles may be used as the
第2ディスプレイ2を第1ディスプレイ160としてのレンズに投影する場合、レンズの背景に見えるものを遮断して、完全にディスプレイのみとして用いてもよいし、レンズの背景に見えるものを遮断せずに、実際にレンズ越しに見える光景と、第2ディスプレイ2の映像等とを重畳して見られる形態としてもよい。
When projecting the
ジェスチャとして視線、瞬き等の目の周りの筋肉の動き又は眼球の動きの少なくとも一方を有効に利用するために、フレーム部分に、目及び目周辺の状態を取得できるカメラ101を1又は複数備えていてもよい。さらに、測距センサ102等、前述の実施形態で説明された他のセンサにより、種々のユーザの状態を取得してもよい。例えば、頭に近い場所に装着されるので脳波を取得したり、顔の筋肉の筋電状態等を感知したりできるセンサを適切な箇所、例えば、テンプル、パッド等に備えていてもよい。
In order to effectively utilize at least one of the movements of the muscles around the eyes such as the line of sight and blinking or the movement of the eyeball as a gesture, the frame part is equipped with one or
別の例として、フレーム等から、手の甲、平に投影するタイプの第1ディスプレイ160として構成されてもよい。
As another example, it may be configured as a
ジェスチャは、目の動きに限定されるわけではなく、前述と同様に、手等の動きに夜ものであってもよい。この場合、手等の動きを取得できるカメラ101、測距センサ102等を、フレームから外側を取得するといった場所等に、適切に備えていてもよい。
Gestures are not limited to eye movements, and may be night movements such as hands, as described above. In this case, a
また、ウェアラブルデバイス1は、1つの固定した形状を有するのみにはとどまらない。例えば、ウェアラブルデバイス1は、腕時計型と、眼鏡型とを変形できるデバイスであってもよい。別の例として、例えば、レンズ型のウェアラブルデバイス1として機能し、腕のバンドに装着すれば腕時計型、眼鏡型の装着器に装着すれば眼鏡型として利用できる等の方法であってもかまわない。さらに、腕時計型、眼鏡型、板型に変形できるデバイスであってもよい。
Also, the
また、第1ディスプレイ160として、折り曲げたり、丸めたりできるディスプレイを用いてもよい。このように、物理的に形状が変形できるウェアラブルデバイス1を利用することにより、ユーザが状況に応じて変形して利用する等、よりユーザビリティを向上することが可能となる。
Further, as the
(第7実施形態)
前述の実施形態では、全般的な処理の内容について具体例を挙げて説明したが、本実施形態では、より具体的なその他のユースケースについて説明する。
(7th Embodiment)
In the above-described embodiment, the contents of the general processing have been described with specific examples, but in the present embodiment, more specific other use cases will be described.
以下には、ジェスチャ等の具体例が挙げられているが、本開示の内容は、これらは限定的なものではない。例えば、ユーザが実行可能であり、入力部10が適切に感知可能、処理部14が適切に検出可能である所定のジェスチャに対して適切な処理が実行されるのであれば、どのようなジェスチャであってもよい。
Specific examples of gestures and the like are given below, but the contents of the present disclosure are not limited to these. For example, what gesture is used as long as the appropriate processing is executed for a predetermined gesture that can be executed by the user, can be appropriately sensed by the
また、それぞれのジェスチャ等は、ユーザにより設定したり、較正したりすることも可能である。例えば、瞬きを連続でするジェスチャの場合、瞬きの間隔、回数等をユーザが設定できるものであってもよい。 In addition, each gesture or the like can be set or calibrated by the user. For example, in the case of a gesture in which blinking is continuous, the user may be able to set the blink interval, the number of blinks, and the like.
(第1例)
ウェアラブルデバイス1は、SNS(Social Networking Service)に最適化されたアプリケーションを処理部14により実行してもよい。例えば、通知が来ると、アクチュエータ162が所定の振動をしてユーザに通知が来た旨を伝える。腕を振り上げると、当該通知の内容、例えば、メッセージの内容が第2ディスプレイ2に表示され、第1ディスプレイ160を介してユーザが閲覧することができる。
(1st example)
The
ジェスチャ、例えば、腕を動かしたり、顔を動かしたりすることにより入力する。例えば、メッセージを表示した状態で笑顔、又は、親指をあげる等のジェスチャを入力することで、「いいね!」が当該メッセージに送信されてもよい。 Enter by gestures, such as moving your arms or moving your face. For example, "Like" may be sent to the message by inputting a gesture such as smiling or raising the thumb while the message is displayed.
メッセージに返信するためには、別のジェスチャを準備してもよい。例えば、ウェアラブルデバイス1を装着している手の親指にマッピングされたキーボードを人差し指で触ってフリック入力が可能である形態としてもよい。
You may prepare another gesture to reply to the message. For example, a keyboard mapped to the thumb of the hand wearing the
この場合、ウェアラブルデバイス1は、例えば、装着側の親指が撮影可能なカメラ101を備えてもよいし、筋電センサ107により、微細な指の動きを取得できる形態としてもよい。また、装着側の手の甲にマッピングされたキーボードを、もう片方の手の指でフリックすることにより入力可能な形態としてもよい。文字入力が終了した後のメッセージの送信にも、別の所定のジェスチャが付与されていてもよい。
In this case, the
(第2例)
ウェアラブルデバイス1は、瞬きをすることをジェスチャ入力として受信してもよい。ユーザが瞬きを所定回数、例えば、3回連続ですることにより、ユーザを中心とした円筒状のディスプレイに第2ディスプレイ2を変形してもよい。例えば、この円筒状のディスプレイには、その表面にユーザに向かってアプリケーションが並んでいる。円筒の表面を触れてスワイプ、フリック等することにより、円筒状のディスプレイがユーザを中心に回転してもよい。
(2nd example)
The
ユーザは、起動したい、又は、表示させたいアプリケーションに対して、瞬き、腕の動き、顔の表情等のジェスチャを入力することにより、アプリケーションを起動、又は、表示させる。例えば、ユーザがアプリケーションに視線を合わせて2回瞬きをすることにより、当該アプリケーションが表示されてもよい。アプリケーションの表示後は、第2ディスプレイ2を平面状のディスプレイにしてもよい。
The user starts or displays the application by inputting gestures such as blinking, arm movement, facial expression, etc. to the application to be started or displayed. For example, the application may be displayed by the user looking at the application and blinking twice. After displaying the application, the
(第3例)
ウェアラブルデバイス1は、ジェスチャによる閲覧に最適化されたウェブブラウザを起動できるものであってもよい。例えば、当該ウェブブラウザを置きどうすると、第2ディスプレイ2が縦長の長方形に変形する。腕、顔を動かしたり、ウェアラブルデバイス1を装着していない方の手で摘まむジェスチャ等を入力したりすることにより、第2ディスプレイ2を動かすことが可能な構成であってもよい。
(3rd example)
The
また、スクロールボタンを注視するコマンド入力により、処理部14は、コンテンツのスクロール表示を行ってもよい。このスクロール表示は、第1ディスプレイ160に表示する第2ディスプレイ2の領域等を移動させる処理として実装されてもよいし、第2ディスプレイ2の表示をスクロールさせる処理として実装されてもよい。また、処理部14は、入力部10を介して目を細めるジェスチャを検出すると、文字サイズを大きくしたり、部分的に拡大したりする処理を実行してもよい。
Further, the
(第4例)
ウェアラブルデバイス1を装着していない手で耳に触れるジェスチャをすると、音楽再生アプリケーションが起動する実装としてもよい。この場合、処理部14は、第2ディスプレイ2を円環形状のディスプレイとしてもよい。ウェアラブルデバイス1を装着している側の手の指をくるくると回すジェスチャをすることにより、円環を回す処理が実行されてもよい。この円環を回す処理により、プレイリストから聞きたい曲を探索してもよいし、ボリューム操作としてもよい。別途、再生のためのジェスチャ入力が用意されていてもよい。
(4th example)
It may be an implementation that launches a music playback application by making a gesture that touches the ear with a hand that is not wearing the
そして、第2ディスプレイ2を払うジェスチャをすることにより、アクチュエータ162により触覚によるフィードバックが実行され、このアプリケーションを最小化、又は、バックグラウンド再生にいこうしてもよい。
Then, by making a gesture that pays for the
(第5例)
ウェアラブルデバイス1を、AR又はVRとして応用する例をいくつか挙げる。
(5th example)
Here are some examples of applying the
第2ディスプレイ2がユーザの全周を囲うようなディスプレイとして準備される。地図アプリケーションを起動して、目的地を設定する。歩き始めると、アプリケーションにより、第2ディスプレイ2が変形し、目的地に向かうために歩く方向を示す矢印形の3Dウィジェットの形状となってもよい。
The
この場合、目的地に徒歩で向かう場合だけではなく、電車等の交通機関を使う場合には、目的地へと徒歩で向かう道のりではなく、駅へと向かう道のりを示すように第1ディスプレイ160に表示されてもよい。
In this case, not only when walking to the destination, but also when using transportation such as a train, the
例えば、第2ディスプレイ2には、地図が矢印と重畳されて表示されてもよい。
For example, the map may be superimposed on the arrow on the
別の例として、第2ディスプレイ2は、その矢印の形状を透過する形として存在し、処理部14は、第1ディスプレイ160の実際の後ろ側の景色と、この変形した第2ディスプレイ2とを重畳して、第1ディスプレイ160に表示させてもよい。この場合、ウェアラブルデバイス1は、例えば、第1ディスプレイ160の表示面とは逆側の映像情報を取得するカメラ101を有している。すなわち、ユーザは、ウェアラブルデバイス1の第1ディスプレイ160が、あたかもその領域に手首が存在しないかのように、現実世界の景色と第1ディスプレイ160の出力とをシームレスに表示することができる。このため、ユーザは、景色の中に、進むべき方向が示される映像を見ることができ、シームレスなナビゲーションシステムを利用することができる。
As another example, the
さらに、この背景及び矢印の表示に重ねて、目的地(経由地を含む)までの時間が表示されてもよい。また、別の例として、駅に到着した後には、運賃を表示したり、目的の電車に乗ることができるプラットフォームの番号を表示したり、又は、直近の到着、発車する電車の時間等を表示してもよい。時間の表示は、例えば、到着、発車までの残り時間としてもよい。 Further, the time to the destination (including the waypoint) may be displayed on the background and the display of the arrow. As another example, after arriving at the station, the fare is displayed, the number of the platform on which the target train can be boarded is displayed, or the latest arrival, the time of the departing train, etc. are displayed. You may. The time display may be, for example, the remaining time until arrival and departure.
(第6例)
ウェアラブルデバイス1は、翻訳機として動作してもよい。例えば、ユーザは、理解できない外国語を見たときに、そちら側にウェアラブルデバイス1を向けることにより、当該外国語を日本語に翻訳した結果を見ることができる。処理部14は、翻訳した結果を第2ディスプレイ2に表示させ、第1ディスプレイ160において、この第2ディスプレイ2の表示を背景表示と重畳して表示させることにより、ユーザに翻訳結果を出力してもよい。
(6th example)
The
別の例として、外国語をシースルー表示するのではなく、母国語の表示を外国語の上に、外国語領域を塗りつぶした上で表示してもよい。母国語の表示に対してタップ等のジェスチャを入力することにより、母国語でその表示を読み上げる動作をしてもよい。 As another example, instead of displaying the foreign language through see-through, the display of the native language may be displayed on the foreign language with the foreign language area filled in. By inputting a gesture such as a tap on the display in the native language, the display may be read aloud in the native language.
逆に、母国語に対してウェアラブルデバイス1をかざすことにより、任意の言語への翻訳をしてもよい。この場合、翻訳後の文章に対してタップ等のジェスチャをすると、音声によりその翻訳後の文章を読み上げる動作をしてもよい。
Conversely, translation into any language may be performed by holding the
(第7例)
上記の第5例と同様に、第2ディスプレイ2がユーザの全周となっているウェアラブルデバイス1を装着する。遠隔カメラアプリを起動することにより、例えば、自宅のロボットを介した映像が第2ディスプレイ2に表示される。ロボットは、例えば、360度の映像情報、音情報等を取得できるセンサを備える。
(7th example)
Similar to the fifth example above, the
腕や顔を動かすことにより、第1ディスプレイ160に表示される第2ディスプレイ2の領域が腕や顔の動きに対応する方向に移動してもよい。すなわち、腕や顔を動かすことにより、第1ディスプレイ160を介して第2ディスプレイ2に表示されている自宅の様子を、物理的、空間的な整合性を保ちながら映像として取得できる。
By moving the arm or face, the area of the
ロボットは、例えば、ウェアラブルデバイス1を介したユーザの指示に従い決められた動線又は任意の動線を移動可能であってもよい。ロボットは、例えば、部屋間を移動することができる。ユーザの指示は、例えば、腕、顔等のジェスチャ、又は、音声入力を解析し、その結果が、ウェアラブルデバイス1から通信部18を介してロボットへと伝達されてもよい。
The robot may be able to move, for example, a flow line determined according to a user's instruction via the
例えば、留守中の自宅の様子、ペットの様子等をモニタすることができる。 For example, it is possible to monitor the state of the home, the state of the pet, etc. while they are away.
また、別の例として、遠隔操作ロボットが自宅ではなく、遠隔介護のモニタするデバイスとして備えられてもよい。この場合、介護対象の家の中をロボットが移動し、種々の情報を感知して第2ディスプレイ2が映し出している仮想空間を介してユーザへと出力する。もちろん、映像だけではなく、音の情報をも出力するものであってもよい。ユーザは、介護対象の状態をチェックすることが可能となる。この場合、セキュリティ関係上表示させるのが好ましく無い対象は、ロボット側において表示しないように処理をして、通信し、ウェアラブルデバイス1の第2ディスプレイ2に表示してもよい。
Further, as another example, the remote-controlled robot may be provided as a monitoring device for remote care instead of at home. In this case, the robot moves in the house to be cared for, senses various information, and outputs it to the user via the virtual space projected by the
ユーザは、ウェアラブルデバイス1を介してロボットに移動以外の行動をさせてもよい。例えば、ユーザの声をロボットから出力してもよい。逆にロボットが感知した音声を、ウェアラブルデバイス1のスピーカ161から出力してもよい。このように、遠隔地に存在するロボットを介して、インタラクティブな他のユーザ、又は、遠隔環境とのやりとりが可能であってもよい。
The user may cause the robot to perform an action other than movement via the
いずれの場合であっても、ロボットの周辺にある他のデバイスにウェアラブルデバイス1からアクセスできる実装であってもよい。例えば、ウェアラブルデバイス1の第2ディスプレイ2の一部に、あらかじめロボットに登録がされているPC、スマートフォン、タブレット端末等の画面を表示してもよい。ユーザは、第1ディスプレイ160を介して第2ディスプレイ2を見ることにより、ロボットの周辺にあるデバイスに表示されている内容を閲覧したり、又は、当該デバイスを操作したりすることができる。
In either case, the implementation may be such that the
(第8例)
次に、複数のデバイスが連携して動作する例について説明する。
(8th example)
Next, an example in which a plurality of devices operate in cooperation with each other will be described.
リモートデスクトップアプリケーションにより、遠隔地にあるPCのモニタの内容を、ウェアラブルデバイス1を用いて取得できる構成としてもよい。例えば、会社にあるPCにVPN(Virtual Private Network)等でアクセスし、当該PCのモニタ、又は、当該PCから出力される映像信号の表示領域の形状、大きさに合わせて、第2ディスプレイ2の形状等を変化させてもよい。
The remote desktop application may be configured so that the contents of the monitor of a remote PC can be acquired by using the
そして、リモートデスクトップアプリケーションを介して、ユーザが第1ディスプレイ160に表示される第2ディスプレイ2の一部又は全部の領域において、当該PCを操作することができるように、処理部14は、処理を実行してもよい。例えば、このような実装とすれば、ウェアラブルデバイス1から、会社のPC内に保存されている書類等を確認することも可能である。
Then, the
続いて、当該PCとの接続を切断し、別のデバイスにアクセスすることにより、第2ディスプレイ2の形状を変化させてもよい。例えば、当該PCからウェアラブルデバイス1を切断し、自宅にあるタブレット端末にアクセスする通信を確立する。処理部14は、アクセスのターゲットとなるデバイスに合わせて第2ディスプレイ2の形状を変化させる。例えば、PCのモニタの表示領域の形状であった第2ディスプレイ2の形状が、タブレット端末の表示領域の形状の形状へと変化する。ユーザは、ウェアラブルデバイス1から、タブレット端末の操作を実行することができる。そして、自宅に戻った後に、タブレット端末を実際に操作することにより、ウェアラブルデバイス1を介して実行した操作の続きを実行することも可能である。
Subsequently, the shape of the
(第9例)
遠隔地にあるTV等と同期してウェアラブルデバイス1に映像、又は、その他信号が通知されてもよい。例えば、自宅のTVが起動すると、その通知がウェアラブルデバイス1を介してユーザにされてもよい。そして、第2ディスプレイ2は、当該TVの表示領域の形状と変化し、当該TVに表示されている内容をリアルタイムに表示してもよい。著作権法において各権利と抵触する映像は、ウェアラブルデバイス1には送信されないようにしてもよい。この場合、どのチャンネル、又は、どのようなコンテンツが表示されているかについての情報を第2ディスプレイ2側に表示してもよい。
(9th example)
A video or other signal may be notified to the
上記と同様に、ウェアラブルデバイス1から当該TVの操作をすることも可能である。例えば、チャンネルを変更することも可能であるし、また、ゲームが長時間実行されている状態では、当該TVの電源を落とす処理を実行してもよい。
Similar to the above, it is also possible to operate the TV from the
(第10例)
上記のように複数のデバイスを1人のユーザが用いるのではなく、逆に、1つの第2ディスプレイ2の少なくとも一部の所定の領域を複数のユーザで共有してもよい。このような形態においては、例えば、仮想空間内のオブジェクトを用いた会議システムなどが考えられる。
(10th example)
Instead of using the plurality of devices by one user as described above, conversely, at least a predetermined area of one
例えば、複数のユーザがウェアラブルデバイス1を装着し、共有する仮想空間を第2ディスプレイ2に表示させてもよい。そのうち1人がジェスチャ入力により、仮想空間内の3Dオブジェクトをつまむ動作を行い、移動させる動作を行うと、当該仮想空間を共有して閲覧している他のユーザの第2ディスプレイ2内のオブジェクトも移動する。同様に、オブジェクトを変形させると、他のユーザの第2ディスプレイ2内のオブジェクトも変形する。このように、ネットワークを介して他のユーザと3Dオブジェクトを共有することも可能である。もちろん、第2ディスプレイ2の表示は、個々のユーザにより第1ディスプレイ160を介して望ましい位置、姿勢から閲覧することが可能である。
For example, a plurality of users may wear the
さらに、1人のユーザが、自らの第2ディスプレイ2内の他の仮想空間から、共有している仮想空間にオブジェクトを移動させてもよい。この場合、他のユーザは、今まで共有している仮想空間内に存在しなかったオブジェクトを共有することが可能となる。
Further, one user may move an object from another virtual space in his / her
上記は、例えば、同じ会議室内で複数人が何もない空間に向かってウェアラブルデバイス1を向けている場合を想定している。ウェアラブルデバイス1のユーザと逆側に備えられるカメラ101を介して他のユーザの相対位置を把握することにより、第2ディスプレイ2内に他のユーザを表示させてもよい。また、前述したいくつかの実施形態と同様に、第2ディスプレイ2として存在するVR空間を、第1ディスプレイ160を介してARとして知覚することも可能である。
The above assumes, for example, a case where a plurality of people are pointing the
さらには、この会議は、ネットワークを介して行われてもよい。この場合、ウェアラブルデバイス1の方向等に基づいて、各ユーザのいる位置が仮想的に設定されてもよい。また、各ユーザは、仮想空間内の座席を指定することにより、各ユーザ自身が仮想空間内に仮想的に存在するような実装としてもよい。この場合、複数のユーザは、別々の位置に存在する必要は無く、同じ位置、又は、重なる位置に存在していてもよい。この場合、1人のユーザがオブジェクトを操作すると、同じ角度からそのオブジェクトの様子を第2ディスプレイ2から第1ディスプレイ160を介して閲覧することも可能である。
Furthermore, this conference may be held via a network. In this case, the position where each user is located may be virtually set based on the direction of the
(第11例)
次に、仮想ディスプレイを用いて、視覚能力を拡張するユースケースについて説明する。
(Example 11)
Next, a use case for expanding visual ability using a virtual display will be described.
ウェアラブルデバイス1は、第2ディスプレイ2に、例えば、本を読むためのアプリケーションを表示することができる。このようなアプリケーションの場合、文字が羅列しているため、視力によっては、ユーザがその文字を正確に読み取れないことがある。例えば、近視のユーザであれば近くにある文字は読めるが、遠くの小さい文字を読むことが困難であるし、遠視のユーザであれば遠くの文字は読めるが、近くにある小さい文字を読むことが困難である。
The
そこで、第2ディスプレイ2は、視力に基づいた表示を行い、この表示に基づいて第1ディスプレイ160に文字等を出力してもよい。例えば、ウェアラブルデバイス1は、第1ディスプレイ160として網膜に直接光を照射するタイプの発光素子を備えていてもよい。このような第1ディスプレイ160及び第2ディスプレイ2を備えることにより、ユーザの視力及び目とウェアラブルデバイス1の距離に基づいて、適切な出力をすることにより、ユーザに適切に文字等を出力することが可能となる。例えば、処理部14は、ユーザの視力に基づいた適切な表示を第2ディスプレイ2にし、この第2ディスプレイ2の表示に基づいて、視力の特性に最適な光線を計算し、第1ディスプレイ160を発光させてもよい。
Therefore, the
また、これは、ほんのリーダーアプリケーションだけではなく、例えば、ウェブブラウザといったコンテンツに文字を含んだり、細かい情報を含んだりする場合にも適用することが可能である。 It can also be applied not only to just a reader application, but also to content such as a web browser that contains characters or contains detailed information.
(第12例)
ウェアラブルデバイス1は、暗視カメラとして動作することも可能である。例えば、色が識別できない、又は、光をほとんど感じられない程度の暗闇において、入力部10として赤外線カメラを備えていてもよい。処理部14は、第2ディスプレイ2に、この赤外線カメラで取得した周囲の環境が表示されていてもよい。
(12th example)
The
ユーザは、暗闇において、見たい方向にウェアラブルデバイス1をかざすことにより、この第2ディスプレイ2に表示されている暗視映像を第1ディスプレイ160に表示することが可能である。
By holding the
また、赤外線ではなく、ウェアラブルデバイス1は、紫外線を取得するカメラとアプレケーションを備えていてもよい。この場合、例えば、日中における紫外線の強さなどを考慮した映像を第2ディスプレイ2に表示しておき、ユーザが見たい範囲にウェアラブルデバイス1をかざすことにより、紫外線の状態を、第1ディスプレイ160を介して感知することができる。この場合、第2ディスプレイ2に表示されている紫外線の感知表示と、同じ範囲を撮影している映像とを重畳して第1ディスプレイ160に表示することも可能である。
Also, instead of infrared light, the
いずれの場合においても、センサにより可視光外の光を感知するのみならず、可視光外の光を照射する発光素子を備えていてもよい。そして、これらの発光素子から射出された光の反射光をセンサにより感知してもよい。尤も、通常のサーマルセンサのように、赤外線を取得するサーモグラフとして、暗視以外の状況に対しても利用できるものであってもよい。サーモグラフとして用いる場合には、赤外線のみならず、紫外線の情報をも併せて取得してもよい。 In either case, the sensor may include a light emitting element that not only senses light outside visible light but also irradiates light outside visible light. Then, the reflected light of the light emitted from these light emitting elements may be sensed by the sensor. However, as a thermograph that acquires infrared rays, such as a normal thermal sensor, it may be usable for situations other than night vision. When used as a thermograph, not only infrared rays but also ultraviolet rays may be acquired together.
このように、人間には見えない可視光領域外の光を受光して、第2ディスプレイ2を用いて任意に実際の背景と重畳することにより、種々の目的においてウェアラブルデバイス1を利用することが可能となる。
In this way, the
(第13例)
上記においては、赤外線、紫外線について述べたが、これには限られない。例えば、受光素子によっては、人間の目よりも細かい輝度の解像度を有するセンサも存在する。このような高感度のセンサと、高感度のセンサよりは低感度のセンサと、を組み合わせることにより、ダイナミックレンジの補正を実現してもよい。
(13th example)
In the above, infrared rays and ultraviolet rays have been described, but the present invention is not limited to this. For example, depending on the light receiving element, there is also a sensor having a resolution of brightness finer than that of the human eye. By combining such a high-sensitivity sensor and a sensor having a lower sensitivity than a high-sensitivity sensor, the dynamic range may be corrected.
例えば、処理部14は、カメラ101から取得した感知情報に基づいて、HDR(High Dynamic Range)画像を第2ディスプレイ2に表示してもよい。そして、ユーザがウェアラブルデバイス1をかざした方向のHDR画像を第1ディスプレイ160に表示させてもよい。このように、ユーザが見たい範囲だけをHDR画像に変換することも、第2ディスプレイ2及び第1ディスプレイ160を用いることにより容易に実現することが可能となる。
For example, the
(第14例)
ウェアラブルデバイス1は、望遠鏡アプリケーションを備えていてもよい。例えば、カメラ101において光学的に、又は、処理部14においてデジタル処理により、望遠画像を取得し、処理部14は、この望遠画像を第2ディスプレイ2に表示しておいてもよい。カメラ101は、例えば、ウェアラブルデバイス1の第1ディスプレイ160の表示面と逆側を撮影するように備えられる。ユーザが遠くを見たい方向にウェアラブルデバイス1をかざすことにより、第1ディスプレイ160に、望遠鏡を介して取得したような映像等を表示することができる。
(14th example)
The
さらに、例えば、インカメラにより、ユーザの目の映像等を取得しておき、ユーザが目を細めるジェスチャをした場合に、処理部14は、焦点距離をより遠くにしたり、又は、画角をより狭めたりして、より遠くの映像までを精密に取得できる状態としてもよい。そして、第2ディスプレイ2において、表示をして、ユーザは、第1ディスプレイ160を介してより遠くの映像を取得してもよい。
Further, for example, when an image of the user's eyes is acquired by an in-camera and the user makes a gesture of squinting, the
また、別の例としては、第2ディスプレイ2として距離に応じた複数の表示面を仮想的に設定しておき、それぞれの面における映像等が表示されていてもよい。ユーザの目を細める等のジェスチャを感知すると、処理部14は、第1ディスプレイ160に投影される第2ディスプレイ2を切り替えて、別の焦点距離の画像を出力してもよい。
Further, as another example, a plurality of display surfaces according to the distance may be virtually set as the
(第15例)
上記の望遠鏡と同様に、ウェアラブルデバイス1は、顕微鏡アプリケーションを備えていてもよい。実装は、上記の望遠鏡アプリケーションとほぼ同等である。顕微鏡アプリケーションにおいては、ユーザが目を細めることにより、拡大した画像を出力する構成であってもよい。
(15th example)
Similar to the telescope described above, the
(第16例)
ウェアラブルデバイス1は、腕時計型とアイウェアとを兼用して利用できるものであってもよい。例えば、運動をする場合には、腕時計型のウェアラブルデバイス1として利用し、激しく動かない場合等には、変形してアイウェアとして利用してもよい。例えば、腕時計型のウェアラブルデバイス1において、腕から外し、バンドを折り曲げることにより、耳に掛けることが可能なアイウェアと変形する形態であってもよい。
(16th example)
The
このように変形することにより、スポーツ中にはモバイル性が求められるウェアラブルデバイス1として利用し、集中するときや激しい動きが無い状態では、アイウェアとして利用することが可能である。もちろん、このウェアラブルデバイス1は、上述した任意のアプリケーション、モジュール等を実装することも可能である。
By deforming in this way, it can be used as a
ユーザインタフェースは、フォームファクタのモード等に応じて適切に変更されるものであってもよい。 The user interface may be appropriately changed according to the mode of the form factor and the like.
(第17例)
ウェアラブルデバイス1は、人の多い状況で用いられることも考えられる。このような場合、ウェアラブルデバイス1の第1ディスプレイ160に表示される内容が他の人間に見られる可能性がある。また、ウェアラブルデバイス1を他の人間に利用される可能性もある。
(17th example)
インカメラを備えることにより、ウェアラブルデバイス1のよりセキュアな利用をすることもできる。例えば、ウェアラブルデバイス1の記憶部12にあらかじめユーザの顔の情報、例えば、特徴量の情報を格納しておき、顔認証ができるようにしておく。この認証は、機械学習により訓練された学習済モデルを用いてもよい。
By providing an in-camera, it is possible to use the
そして、複数の人間がインカメラにより感知された場合、処理部14は、この複数の人間から、ユーザのいる方向をカメラ101の取得した情報に基づいて推定する。この推定も、学習済モデルを用いてもよい。
Then, when a plurality of humans are sensed by the in-camera, the
そして、第2ディスプレイ2に表示されている内容を、ユーザに向けて出力するように、第1ディスプレイ160を発光等させてもよい。第1ディスプレイ160は、例えば、指向性を持たせて投影することが可能であるディスプレイであってもよく、このようなディスプレイを用いることにより、ユーザにはコンテンツが閲覧できるが、周りにいる人間からは第2ディスプレイ2に表示されている映像等のコンテンツが閲覧できないように、表示をすることができる。
Then, the
前述した実施形態は、以下のような形態としてもよい。 The above-described embodiment may have the following embodiments.
(1)
処理回路と、
第1ディスプレイと、
を備え、
前記処理回路は、
仮想的な第2ディスプレイを設定し、
前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、前記第2ディスプレイに対する前記第1ディスプレイの位置及び姿勢に基づいて、前記第1ディスプレイを介して表示する、
デバイス。
(1)
With the processing circuit
1st display and
Equipped with
The processing circuit is
Set up a virtual second display,
A part or all of the video signal virtually projected on the second display is displayed via the first display based on the position and orientation of the first display with respect to the second display.
device.
(2)
センサ、をさらに備え、
前記処理回路は、
前記センサの感知情報に基づいて、前記第1ディスプレイに前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を表示する、
(1)に記載のデバイス。
(2)
With more sensors,
The processing circuit is
Based on the sensing information of the sensor, the first display displays a part or all of the video signal virtually projected on the second display.
The device described in (1).
(3)
前記センサは、慣性センサであり、
前記処理回路は、
前記慣性センサにより所定姿勢になったことを感知して、前記第1ディスプレイの表示を開始する、
(2)に記載のデバイス。
(3)
The sensor is an inertial sensor and
The processing circuit is
When the inertia sensor detects that the posture has been determined, the display of the first display is started.
The device described in (2).
(4)
前記処理回路は、
前記慣性センサにより所定ジェスチャが入力されたことを感知して、前記第1ディスプレイの表示を開始する、
(3)に記載のデバイス。
(Four)
The processing circuit is
Detecting that a predetermined gesture has been input by the inertia sensor, the display of the first display is started.
The device described in (3).
(5)
前記センサは、カメラである、
(2)から(4)のいずれかに記載のデバイス。
(Five)
The sensor is a camera.
The device according to any one of (2) to (4).
(6)
前記処理回路は、
前記カメラにより取得した情報に基づいて、ユーザの顔又はユーザの視線を認識して、前記第1ディスプレイに前記第2ディスプレイの一部又は全部の領域に表示される内容を表示する、
(5)のいずれかに記載のデバイス。
(6)
The processing circuit is
Based on the information acquired by the camera, the user's face or the user's line of sight is recognized, and the content displayed in a part or all of the area of the second display is displayed on the first display.
The device described in any of (5).
(7)
前記センサは、前記第1ディスプレイに付属するタッチパネルである、
(2)から(6)のいずれかに記載のデバイス。
(7)
The sensor is a touch panel attached to the first display.
The device according to any one of (2) to (6).
(8)
前記処理回路は、前記センサにより取得されたジェスチャに基づいて、所定処理を実行する、
(2)から(7)のいずれかに記載のデバイス。
(8)
The processing circuit executes a predetermined processing based on the gesture acquired by the sensor.
The device according to any one of (2) to (7).
(9)
前記処理回路は、
前記センサが感知した前記ジェスチャ情報に基づいて、前記第1ディスプレイの表示を開始する、
(8)に記載のデバイス。
(9)
The processing circuit is
Based on the gesture information sensed by the sensor, the display of the first display is started.
The device described in (8).
(10)
前記処理回路は、
前記センサが感知した前記ジェスチャ情報に基づいて、前記第1ディスプレイが表示する前記第2ディスプレイの領域又は姿勢を変更する、
(8)又は(9)に記載のデバイス。
(Ten)
The processing circuit is
The area or posture of the second display displayed by the first display is changed based on the gesture information sensed by the sensor.
The device according to (8) or (9).
(11)
前記処理回路は、
前記センサが感知した前記ジェスチャを、前記第1ディスプレイに表示する、
(8)から(10)のいずれかに記載のデバイス。
(11)
The processing circuit is
The gesture sensed by the sensor is displayed on the first display.
The device according to any one of (8) to (10).
(12)
前記処理回路は、
前記センサが感知した前記ジェスチャにアバターを付与して前記第1ディスプレイに表示する、
(11)に記載のデバイス。
(12)
The processing circuit is
An avatar is attached to the gesture detected by the sensor and displayed on the first display.
The device described in (11).
(13)
前記ジェスチャは、前記第1ディスプレイに対するジェスチャである、
(8)から(12)のいずれかに記載のデバイス。
(13)
The gesture is a gesture for the first display.
The device according to any one of (8) to (12).
(14)
前記ジェスチャは、前記第2ディスプレイに対するジェスチャである、
(8)から(13)のいずれかに記載のデバイス。
(14)
The gesture is a gesture for the second display.
The device according to any one of (8) to (13).
(15)
前記処理回路は、
前記ジェスチャに基づいて、前記第1ディスプレイに対する前記第2ディスプレイの位置を変更する、
(8)から(14)のいずれかに記載のデバイス。
(15)
The processing circuit is
The position of the second display with respect to the first display is changed based on the gesture.
The device according to any one of (8) to (14).
(16)
前記ジェスチャに対するフィードバック処理を実行する、フィードバック処理部、
をさらに備える、(8)から(15)のいずれかに記載のデバイス。
(16)
A feedback processing unit that executes feedback processing for the gesture.
The device according to any one of (8) to (15), further comprising.
(17)
前記フィードバック処理部は、バイブレータを備える、
(16)に記載のデバイス。
(17)
The feedback processing unit includes a vibrator.
The device described in (16).
(18)
前記フィードバック処理部は、スピーカを備える、
(16)又は(17)に記載のデバイス。
(18)
The feedback processing unit includes a speaker.
The device according to (16) or (17).
(19)
前記センサは、マイクであり、
前記処理回路は、
前記マイクが感知したユーザの音声情報に基づいて、所定処理を実行する、
(2)から(18)のいずれかに記載のデバイス。
(19)
The sensor is a microphone
The processing circuit is
A predetermined process is executed based on the voice information of the user sensed by the microphone.
The device according to any one of (2) to (18).
(20)
前記第1ディスプレイの表示は、ユーザ又は前記第1ディスプレイが移動した場合に、前記第2ディスプレイに対する相対的な運動による運動視差に基づいて変化する、
(2)から(19)のいずれかに記載のデバイス。
(20)
The display of the first display changes based on the motion parallax due to the relative movement with respect to the second display when the user or the first display moves.
The device according to any one of (2) to (19).
(21)
外部と情報を送受信する、通信部、をさらに備え、
前記処理回路は、
外部デバイスとの相対的な位置関係を前記通信部より受信し、当該位置関係に基づいて、第1ディスプレイの表示を更新する、
(1)から(20)のいずれかに記載のデバイス。
(twenty one)
It also has a communication unit that sends and receives information to and from the outside.
The processing circuit is
A relative positional relationship with an external device is received from the communication unit, and the display on the first display is updated based on the positional relationship.
The device according to any one of (1) to (20).
(22)
前記第1ディスプレイは、平面状又は曲面状の2次元のディスプレイである、
(1)から(21)のいずれかに記載のデバイス。
(twenty two)
The first display is a two-dimensional display having a flat surface or a curved surface.
The device according to any one of (1) to (21).
(23)
前記第1ディスプレイは、前記処理回路において仮想的に生成されるユーザの体の一部の形状を有する仮想ディスプレイであり、プロジェクタ機能を備える発光部から表示面としてユーザの体の一部を利用する、
(1)から(21)のいずれかに記載のデバイス。
(twenty three)
The first display is a virtual display having a shape of a part of the user's body that is virtually generated in the processing circuit, and uses a part of the user's body as a display surface from a light emitting unit having a projector function. ,
The device according to any one of (1) to (21).
(24)
前記第1ディスプレイは、3次元ディスプレイである、
(1)から(21)のいずれかに記載のデバイス。
(twenty four)
The first display is a three-dimensional display.
The device according to any one of (1) to (21).
(25)
前記第2ディスプレイは、3Dオブジェクトを投影する3次元的なディスプレイである、
(1)から(24)のいずれかに記載のデバイス。
(twenty five)
The second display is a three-dimensional display that projects a 3D object.
The device according to any one of (1) to (24).
(26)
前記第2ディスプレイは、ユーザと前記第1ディスプレイとの間に定義される、
(1)から(25)のいずれかに記載のデバイス。
(26)
The second display is defined between the user and the first display.
The device according to any one of (1) to (25).
(27)
前記第2ディスプレイは、ユーザから前記第1ディスプレイよりも遠くに定義される、
(1)から(25)のいずれかに記載のデバイス。
(27)
The second display is defined farther from the user than the first display.
The device according to any one of (1) to (25).
(28)
前記処理回路は、
前記第1ディスプレイを介して前記第2ディスプレイに表示されているコンテンツを表示するモードと、
前記コンテンツを前記第1ディスプレイに直接表示するモードと、
を切り替え可能である、
(1)から(27)のいずれかに記載のデバイス。
(28)
The processing circuit is
A mode for displaying the content displayed on the second display via the first display, and
A mode in which the content is displayed directly on the first display, and
Can be switched,
The device according to any one of (1) to (27).
(29)
前記デバイスは、ユーザの腕に装着するウェアラブルデバイスである、
(1)から(28)のいずれかに記載のデバイス。
(29)
The device is a wearable device worn on the user's arm.
The device according to any one of (1) to (28).
(30)
前記デバイスは、眼鏡型のウェアラブルデバイスであり、
前記第1ディスプレイは、前記眼鏡型のウェアラブルデバイスのレンズに備えられる、
(1)から(28)のいずれかに記載のデバイス。
(30)
The device is a spectacle-type wearable device.
The first display is provided in the lens of the eyeglass-type wearable device.
The device according to any one of (1) to (28).
(31)
前記第1ディスプレイは、ユーザからの視点に対して透過した表示をした上で、前記第2ディスプレイに表示されているコンテンツを重ねて表示する、
(1)から(30)のいずれかに記載のデバイス。
(31)
The first display displays the content transparent to the viewpoint from the user, and then superimposes the content displayed on the second display.
The device according to any one of (1) to (30).
(31)
前記第2ディスプレイは、複数ユーザがアクセスできる仮想空間内の仮想現実を投影するディスプレイであり、
前記デバイスにより、複数ユーザが同じ仮想現実を体験する、
(1)から(30)のいずれかに記載のデバイス。
(31)
The second display is a display that projects virtual reality in a virtual space that can be accessed by a plurality of users.
With the device, multiple users experience the same virtual reality.
The device according to any one of (1) to (30).
(32)
前記第2ディスプレイは、仮想空間内の仮想現実を投影するディスプレイであり、
前記仮想現実は、遠隔地に存在する別の装置のセンサの感知情報により再構成される、
(1)から(30)のいずれかに記載のデバイス。
(32)
The second display is a display that projects virtual reality in virtual space.
The virtual reality is reconstructed by the sensor detection information of another device located in a remote place.
The device according to any one of (1) to (30).
(33)
前記処理回路は、ユーザの視力に基づいて、前記第1ディスプレイに表示する内容を再構成する、
(1)から(32)のいずれかに記載のデバイス。
(33)
The processing circuit reconstructs the content displayed on the first display based on the user's visual acuity.
The device according to any one of (1) to (32).
(34)
前記処理回路は、周囲の明るさの環境に基づいて、前記第1ディスプレイにダイナミックレンジを変換した画像を表示する、
(1)から(33)のいずれかに記載のデバイス。
(34)
The processing circuit displays an image having a converted dynamic range on the first display based on an environment of ambient brightness.
The device according to any one of (1) to (33).
(35)
前記処理回路は、前記第1ディスプレイに望遠鏡を介した前記第2ディスプレイの一部又は全部の画像を表示する、
(1)から(34)のいずれかに記載のデバイス。
(35)
The processing circuit displays a part or all of an image of the second display via a telescope on the first display.
The device according to any one of (1) to (34).
(36)
前記処理回路は、前記第1ディスプレイに顕微鏡を介した前記第2ディスプレイの一部又は全部の画像を表示する、
(1)から(35)のいずれかに記載のデバイス。
(36)
The processing circuit displays an image of a part or all of the second display via a microscope on the first display.
The device according to any one of (1) to (35).
(37)
前記デバイスは、変形可能である、
(1)から(36)のいずれかに記載のデバイス。
(37)
The device is deformable,
The device according to any one of (1) to (36).
(38)
前記処理回路は、
デバイスを身につけているユーザの所定点を基準とする第1座標系と、
ユーザがデバイスを身につけている点を基準とする第2座標系と、
ユーザの目を基準とする第3座標系と、
前記第2ディスプレイの所定点を基準とする第4座標系と、
に基づいて、前記第1ディスプレイに表示する前記第2ディスプレイの領域及び方向を設定する、
(1)から(37)のいずれかに記載のデバイス。
(38)
The processing circuit is
The first coordinate system relative to a predetermined point of the user wearing the device,
A second coordinate system based on the point at which the user wears the device,
A third coordinate system relative to the user's eyes,
A fourth coordinate system based on a predetermined point on the second display, and
The area and direction of the second display to be displayed on the first display are set based on the above.
The device according to any one of (1) to (37).
(39)
前記処理回路は、
前記ユーザの所定点を基準に、前記第2ディスプレイの位置を仮想的に定義する、
(38)に記載のデバイス。
(39)
The processing circuit is
The position of the second display is virtually defined based on the predetermined point of the user.
The device described in (38).
(40)
前記処理回路は、
前記第2座標系における前記第1ディスプレイの位置を、前記第1座標系に変換し、
前記第3座標系におけるユーザの目の位置を、前記第1座標系に変換し、
ユーザの目から前記第1ディスプレイを介して前記第2ディスプレイを見た場合の前記第1ディスプレイに表示する領域を算出し、
前記第1ディスプレイに前記第2ディスプレイの一部又は全部の領域を表示する、
(39)に記載のデバイス。
(40)
The processing circuit is
The position of the first display in the second coordinate system is converted into the first coordinate system.
The position of the user's eyes in the third coordinate system is converted into the first coordinate system.
The area to be displayed on the first display when the second display is viewed from the user's eyes through the first display is calculated.
Displaying a part or all of the area of the second display on the first display,
The device according to (39).
(41)
前記処理回路は、オイラー角を用いて前記第2座標系から前記第1座標系への座標変換を実行する、
(40)に記載のデバイス。
(41)
The processing circuit performs coordinate transformation from the second coordinate system to the first coordinate system using Euler angles.
The device described in (40).
(42)
前記処理回路は、クォータニオンを用いて前記第2座標系から前記第1座標系への座標変換を実行する、
(40)に記載のデバイス。
(42)
The processing circuit uses a quaternion to perform a coordinate transformation from the second coordinate system to the first coordinate system.
The device described in (40).
(43)
前記処理回路は、回転行列を用いて前記第2座標系から前記第1座標系への座標変換を実行する、
(40)に記載のデバイス。
(43)
The processing circuit performs a coordinate transformation from the second coordinate system to the first coordinate system using a rotation matrix.
The device described in (40).
(44)
前記処理回路は、
前記第2ディスプレイからの相対的な前記第1ディスプレイの位置及び姿勢を算出し、
算出した前記第1ディスプレイの位置及び姿勢に基づいて、前記第2ディスプレイの一部又は全部に表示される内容を前記第1ディスプレイに投影変換して表示する、
(39)から(43)のいずれかに記載のデバイス。
(44)
The processing circuit is
The position and orientation of the first display relative to the second display are calculated.
Based on the calculated position and orientation of the first display, the contents displayed on a part or all of the second display are projected and converted to the first display for display.
The device according to any one of (39) to (43).
(45)
座標系には、直交座標系、円柱座標系又は球座標系を用いる、
(38)から(44)のいずれかに記載のデバイス。
(45)
A Cartesian coordinate system, a cylindrical coordinate system, or a spherical coordinate system is used as the coordinate system.
The device according to any one of (38) to (44).
(46)
処理回路に、(1)から(45)のいずれかに記載の処理をさせる、
制御方法。
(46)
Have the processing circuit perform the processing according to any one of (1) to (45).
Control method.
(47)
処理回路に、(1)から(45)のいずれかに記載の処理を実行させる、
プログラム。
(47)
Cause the processing circuit to execute the process according to any one of (1) to (45).
program.
本開示の態様は、前述した実施形態に限定されるものではなく、想到しうる種々の変形も含むものであり、本開示の効果も前述の内容に限定されるものではない。各実施形態における構成要素は、適切に組み合わされて適用されてもよい。すなわち、特許請求の範囲に規定された内容及びその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更及び部分的削除が可能である。 The embodiments of the present disclosure are not limited to the above-described embodiments, but include various possible modifications, and the effects of the present disclosure are not limited to the above-mentioned contents. The components in each embodiment may be applied in appropriate combinations. That is, various additions, changes and partial deletions are possible without departing from the conceptual idea and purpose of the present disclosure derived from the contents specified in the claims and their equivalents.
1:ウェアラブルデバイス、
10:入力部、
100:慣性センサ、101:カメラ、102:測距センサ、103:タッチセンサ、104:物理ボタン、105:マイク、106:心拍センサ、107:筋電センサ、108:体温センサ、109:発汗センサ、110:脳波センサ、111:位置センサ、
12:記憶部、
14:処理部、
16:出力部、
160:第1ディスプレイ、161:スピーカ、162:アクチュエータ、163:発光素子、
18:通信部、
2:第2ディスプレイ、
W:第1所定点、
R:第2所定点、
E:第3所定点、
V:第4所定点
1: Wearable device,
10: Input section,
100: inertial sensor, 101: camera, 102: distance measurement sensor, 103: touch sensor, 104: physical button, 105: microphone, 106: heart rate sensor, 107: myoelectric sensor, 108: body temperature sensor, 109: sweating sensor, 110: Brain wave sensor, 111: Position sensor,
12: Memory,
14: Processing department,
16: Output section,
160: 1st display, 161: speaker, 162: actuator, 163: light emitting element,
18: Communication Department,
2: 2nd display,
W: 1st predetermined point,
R: 2nd predetermined point,
E: Third predetermined point,
V: 4th predetermined point
Claims (20)
第1ディスプレイと、
を備え、
前記処理回路は、
仮想的な第2ディスプレイを設定し、
前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、前記第2ディスプレイに対する前記第1ディスプレイの位置及び姿勢に基づいて、前記第1ディスプレイを介して表示する、
デバイス。 With the processing circuit
1st display and
Equipped with
The processing circuit is
Set up a virtual second display,
A part or all of the video signal virtually projected on the second display is displayed via the first display based on the position and orientation of the first display with respect to the second display.
device.
前記処理回路は、
前記センサの感知情報に基づいて、前記第1ディスプレイに前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を表示する、
請求項1に記載のデバイス。 With more sensors,
The processing circuit is
Based on the sensing information of the sensor, the first display displays a part or all of the video signal virtually projected on the second display.
The device of claim 1.
請求項2に記載のデバイス。 The sensor is an inertial sensor, a camera, a touch panel or a microphone.
The device according to claim 2.
前記センサにより取得されたジェスチャに基づいて、所定処理を実行する、
請求項2に記載のデバイス。 The processing circuit is
A predetermined process is executed based on the gesture acquired by the sensor.
The device according to claim 2.
前記センサが感知した前記ジェスチャの情報に基づいて、前記第1ディスプレイが表示する前記第2ディスプレイの領域又は姿勢を変更する、
請求項4に記載のデバイス。 The processing circuit is
The area or posture of the second display displayed by the first display is changed based on the information of the gesture sensed by the sensor.
The device of claim 4.
前記ジェスチャに基づいて、前記第1ディスプレイに対する前記第2ディスプレイの位置を変更する、
請求項4に記載のデバイス。 The processing circuit is
The position of the second display with respect to the first display is changed based on the gesture.
The device of claim 4.
をさらに備える、請求項4に記載のデバイス。 A feedback processing unit that executes feedback processing for the gesture.
4. The device of claim 4.
請求項7に記載のデバイス。 The feedback processing unit includes a vibrator or a speaker.
The device of claim 7.
請求項2に記載のデバイス。 The display of the first display changes based on the motion parallax due to the relative movement with respect to the second display when the user or the first display moves.
The device according to claim 2.
請求項1に記載のデバイス。 The first display is a planar or curved two-dimensional display, a projector or a three-dimensional display that projects onto a part of the user's body.
The device of claim 1.
請求項1に記載のデバイス。 The second display is a two-dimensional display having a planar or curved surface, or a three-dimensional display that projects a 3D object.
The device of claim 1.
前記第1ディスプレイを介して前記第2ディスプレイに表示されているコンテンツを表示するモードと、
前記コンテンツを前記第1ディスプレイに直接表示するモードと、
を切り替え可能である、
請求項1に記載のデバイス。 The processing circuit is
A mode for displaying the content displayed on the second display via the first display, and
A mode in which the content is displayed directly on the first display, and
Can be switched,
The device of claim 1.
請求項1に記載のデバイス。 A wristwatch-type or eyeglass-type wearable device,
The device according to claim 1.
請求項1に記載のデバイス。 The first display displays the content transparent to the viewpoint from the user, and then superimposes the content displayed on the second display.
The device of claim 1.
デバイスを身につけているユーザの所定点を基準とする第1座標系と、
ユーザがデバイスを身につけている点を基準とする第2座標系と、
ユーザの目を基準とする第3座標系と、
前記第2ディスプレイの所定点を基準とする第4座標系と、
に基づいて、前記第1ディスプレイに表示する前記第2ディスプレイの領域及び方向を設定する、
請求項1に記載のデバイス。 The processing circuit is
The first coordinate system relative to a given point of the user wearing the device,
A second coordinate system based on the point at which the user wears the device,
A third coordinate system relative to the user's eyes,
A fourth coordinate system based on a predetermined point on the second display, and
The area and direction of the second display to be displayed on the first display are set based on the above.
The device of claim 1.
前記ユーザの所定点を基準に、前記第2ディスプレイの位置を仮想的に定義する、
請求項15に記載のデバイス。 The processing circuit is
The position of the second display is virtually defined based on the predetermined point of the user.
The device of claim 15.
前記第2座標系における前記第1ディスプレイの位置を、前記第1座標系に変換し、
前記第3座標系におけるユーザの目の位置を、前記第1座標系に変換し、
ユーザの目から前記第1ディスプレイを介して前記第2ディスプレイを見た場合の前記第1ディスプレイに表示する領域を算出し、
前記第1ディスプレイに前記第2ディスプレイの一部又は全部の領域を表示する、
請求項16に記載のデバイス。 The processing circuit is
The position of the first display in the second coordinate system is converted into the first coordinate system.
The position of the user's eyes in the third coordinate system is converted into the first coordinate system.
The area to be displayed on the first display when the second display is viewed from the user's eyes through the first display is calculated.
Displaying a part or all of the area of the second display on the first display,
The device of claim 16.
前記第2ディスプレイからの相対的な前記第1ディスプレイの位置及び姿勢を算出し、
算出した前記第1ディスプレイの位置及び姿勢に基づいて、前記第2ディスプレイの一部又は全部に表示される内容を前記第1ディスプレイに投影変換して表示する、
請求項16に記載のデバイス。 The processing circuit is
The position and orientation of the first display relative to the second display are calculated.
Based on the calculated position and orientation of the first display, the contents displayed on a part or all of the second display are projected and converted to the first display for display.
The device of claim 16.
第1ディスプレイと、
を備えるデバイスの制御方法であって、
前記処理回路により、
仮想的な第2ディスプレイを設定し、
前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、前記第2ディスプレイに対する前記第1ディスプレイの位置及び姿勢に基づいて、前記第1ディスプレイを介して表示する、
制御方法。 With the processing circuit
1st display and
It is a control method of a device equipped with
By the processing circuit
Set up a virtual second display,
A part or all of the video signal virtually projected on the second display is displayed via the first display based on the position and orientation of the first display with respect to the second display.
Control method.
仮想的な第2ディスプレイを設定し、
前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、前記第2ディスプレイに対する第1ディスプレイの位置及び姿勢に基づいて、前記第1ディスプレイを介して表示する、
方法を実行させるプログラム。 In the processing circuit
Set up a virtual second display,
A part or all of the video signal virtually projected on the second display is displayed through the first display based on the position and orientation of the first display with respect to the second display.
A program that runs the method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020098692A JP2021192178A (en) | 2020-06-05 | 2020-06-05 | Device, control method, and program |
PCT/JP2021/018342 WO2021246134A1 (en) | 2020-06-05 | 2021-05-14 | Device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020098692A JP2021192178A (en) | 2020-06-05 | 2020-06-05 | Device, control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021192178A true JP2021192178A (en) | 2021-12-16 |
Family
ID=78830856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020098692A Pending JP2021192178A (en) | 2020-06-05 | 2020-06-05 | Device, control method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021192178A (en) |
WO (1) | WO2021246134A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013152642A (en) * | 2012-01-25 | 2013-08-08 | Sharp Corp | Terminal device, display system, control method of terminal device, control program of terminal device and recording medium storing the control program |
US20130239063A1 (en) * | 2012-03-06 | 2013-09-12 | Apple Inc. | Selection of multiple images |
WO2015156128A1 (en) * | 2014-04-07 | 2015-10-15 | ソニー株式会社 | Display control device, display control method, and program |
JP2014197400A (en) * | 2014-05-16 | 2014-10-16 | 日本電気株式会社 | Liquid crystal display apparatus, mobile communication terminal device and liquid crystal display method |
US9990078B2 (en) * | 2015-12-11 | 2018-06-05 | Immersion Corporation | Systems and methods for position-based haptic effects |
-
2020
- 2020-06-05 JP JP2020098692A patent/JP2021192178A/en active Pending
-
2021
- 2021-05-14 WO PCT/JP2021/018342 patent/WO2021246134A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021246134A1 (en) | 2021-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3195105B1 (en) | Management of content in a 3d holographic environment | |
US9728010B2 (en) | Virtual representations of real-world objects | |
US9696547B2 (en) | Mixed reality system learned input and functions | |
JP7095602B2 (en) | Information processing equipment, information processing method and recording medium | |
AU2021290132C1 (en) | Presenting avatars in three-dimensional environments | |
US20220130124A1 (en) | Artificial reality system with varifocal display of artificial reality content | |
US20220269333A1 (en) | User interfaces and device settings based on user identification | |
US20210349676A1 (en) | Display device sharing and interactivity in simulated reality (sr) | |
KR20160060582A (en) | Device and method for processing visual data, and related computer program product | |
US20220262080A1 (en) | Interfaces for presenting avatars in three-dimensional environments | |
US20240077937A1 (en) | Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments | |
US20230316674A1 (en) | Devices, methods, and graphical user interfaces for modifying avatars in three-dimensional environments | |
US20230359422A1 (en) | Techniques for using in-air hand gestures detected via a wrist-wearable device to operate a camera of another device, and wearable devices and systems for performing those techniques | |
WO2021246134A1 (en) | Device, control method, and program | |
US20240103636A1 (en) | Methods for manipulating a virtual object | |
US20240104859A1 (en) | User interfaces for managing live communication sessions | |
US20240104871A1 (en) | User interfaces for capturing media and manipulating virtual objects | |
US20230152935A1 (en) | Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments | |
US20230103161A1 (en) | Devices, methods, and graphical user interfaces for tracking mitigation in three-dimensional environments | |
US20230171484A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
WO2023196344A1 (en) | Devices, methods, and graphical user interfaces for modifying avatars in three-dimensional environments | |
WO2022178132A1 (en) | User interfaces and device settings based on user identification | |
WO2024064350A1 (en) | User interfaces for capturing stereoscopic media | |
WO2024054433A2 (en) | Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments | |
EP4275108A1 (en) | Interfaces for presenting avatars in three-dimensional environments |