JP2021192178A - Device, control method, and program - Google Patents

Device, control method, and program Download PDF

Info

Publication number
JP2021192178A
JP2021192178A JP2020098692A JP2020098692A JP2021192178A JP 2021192178 A JP2021192178 A JP 2021192178A JP 2020098692 A JP2020098692 A JP 2020098692A JP 2020098692 A JP2020098692 A JP 2020098692A JP 2021192178 A JP2021192178 A JP 2021192178A
Authority
JP
Japan
Prior art keywords
display
user
wearable device
displayed
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020098692A
Other languages
Japanese (ja)
Inventor
敦 根岸
Atsushi Negishi
綾花 西
Ayaka Nishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2020098692A priority Critical patent/JP2021192178A/en
Priority to PCT/JP2021/018342 priority patent/WO2021246134A1/en
Publication of JP2021192178A publication Critical patent/JP2021192178A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns

Abstract

To implement various functions of a wearable device.SOLUTION: A device comprises a processing circuit and a first display. The processing circuit sets a second display that is virtual, and displays a part or all of video signals virtually projected on the second display via the first display based on the position and orientation of the first display with respect to the second display.SELECTED DRAWING: Figure 1

Description

本開示は、デバイス、制御方法及びプログラムに関する。 The present disclosure relates to devices, control methods and programs.

腕に装着する形態のウェアラブルデバイスは持ち運びの携帯性、使用時、又は、通知を着信したとき等に機能へのアクセス性において、スマートフォン等の携帯デバイスに対してメリットがある。今日、ウェアラブルデバイスは、スマートフォンを代替するまでには至っていない。 Wearable devices that are worn on the wrist have advantages over mobile devices such as smartphones in terms of portability, accessibility to functions when used, or when a notification is received. Today, wearable devices have not yet replaced smartphones.

この要因の1つとして、ウェアラブルデバイスの特性に最適な入出力インタフェースが実現されてないことがあげられる。現状、ウェアラブルデバイスには、スマートフォン型の入出力デバイスが広く採用されている。スマートフォン等の携帯端末は、広いディスプレイの特性を生かして様々なグラフィカルなコンテンツを出力するとともに、コンテンツへの直接のジェスチャ入力を受け付けることにより直感的な入出力インタフェースを実現している。一方で、ウェアラブルデバイスは、その表示領域が狭いことが特性の1つとしてあげられる。このため、スマートフォン型の入出力インタフェースをそのまま適用することにより不整合が発生する。 One of the reasons for this is that the input / output interface that is optimal for the characteristics of the wearable device has not been realized. Currently, smartphone-type input / output devices are widely used as wearable devices. Mobile terminals such as smartphones output various graphical contents by taking advantage of the characteristics of a wide display, and realize an intuitive input / output interface by accepting direct gesture input to the contents. On the other hand, one of the characteristics of wearable devices is that their display area is narrow. Therefore, inconsistency occurs by applying the smartphone type input / output interface as it is.

この不整合は、出力と入力との双方の観点からいくつか問題がある。出力の観点においては、一度に表示できるコンテンツが領域の狭さから必然的に少なくなり、狭い範囲での最大限の情報量を表示するためにコンテンツが小さく高密度となり視認しづらくなる点があげられる。入力の観点においては、小さく高密度なコンテンツに対して指先で触る位置の細かい制御が間違えやすく、また、操作が煩雑になる点があげられる。さらに、ジェスチャ入力時の指でコンテンツ自体が隠されて見えなくなる、隠れることにより触る位置の間違えが発生しやすくなる点は、スマートフォン型の端末についてもいえる点ではあるが、ウェアラブルデバイスでは、その影響も大きくなる。 This inconsistency has some problems in terms of both output and input. From the viewpoint of output, the content that can be displayed at one time is inevitably reduced due to the narrow area, and the content is small and dense in order to display the maximum amount of information in a narrow range, making it difficult to see. Be done. From the viewpoint of input, it is easy to make a mistake in finely controlling the position of touching a small and high-density content with a fingertip, and the operation becomes complicated. Furthermore, the fact that the content itself is hidden and invisible by the finger when inputting gestures, and that it is easy to make a mistake in the touching position by hiding is the same for smartphone-type terminals, but for wearable devices, the effect is that. Will also grow.

特開2015-022589号公報JP-A-2015-022589

そこで、本開示では、デバイスの特性に適した入出力インタフェースを有するウェアラブルデバイスを提供する。 Therefore, the present disclosure provides a wearable device having an input / output interface suitable for the characteristics of the device.

一実施形態によれば、デバイスは、処理回路と、第1ディスプレイと、を備える。処理回路は、仮想的な第2ディスプレイを設定し、第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、第2ディスプレイに対する第1ディスプレイの位置及び姿勢に基づいて、第1ディスプレイを介して表示する。処理回路は、例えば、CPU等の処理回路であってもよいし、ASIC等の処理回路であってもよいし、この他のデジタル又はアナログな回路で処理を行う回路であってもよい。 According to one embodiment, the device comprises a processing circuit and a first display. The processing circuit sets a virtual second display, and a part or all of the video signal virtually projected on the second display is first based on the position and orientation of the first display with respect to the second display. Show through the display. The processing circuit may be, for example, a processing circuit such as a CPU, a processing circuit such as an ASIC, or a circuit that performs processing with another digital or analog circuit.

デバイスは、センサ、をさらに備えてもよい。処理回路は、このセンサの感知情報に基づいて、第1ディスプレイに第2ディスプレイに仮想的に投影される映像信号の一部又は全部を表示してもよい。 The device may further include a sensor. The processing circuit may display a part or all of the video signal virtually projected on the second display on the first display based on the sensed information of this sensor.

センサは、慣性センサであってもよい。処理回路は、この慣性センサにより、所定姿勢になったことを感知して、第1ディスプレイの表示を開始してもよい。慣性センサを備えることにより、デバイスの動きを取得することができる。 The sensor may be an inertial sensor. The processing circuit may detect that the predetermined posture is reached by the inertial sensor and start displaying the first display. By providing the inertia sensor, the movement of the device can be acquired.

処理回路は、慣性センサから所定ジェスチャが入力されたことを感知して、第1ディスプレイの表示を開始してもよい。 The processing circuit may detect that a predetermined gesture has been input from the inertial sensor and start displaying the first display.

センサは、その1つとしてカメラを備えていてもよい。カメラを備えることにより、周囲の環境を映像情報として取得することができる。 The sensor may be equipped with a camera as one of them. By providing a camera, the surrounding environment can be acquired as video information.

処理回路は、カメラにより取得した情報に基づいて、ユーザの顔又はユーザの視線を認識して、第1ディスプレイに第2ディスプレイの一部又は全部の領域に表示される内容を表示してもよい。このように、人間の顔を検知して処理を実行したり、又は、特定の人物の顔を認識して処理を実行したりすることができる。 The processing circuit may recognize the user's face or the user's line of sight based on the information acquired by the camera, and display the contents displayed on a part or all of the area of the second display on the first display. .. In this way, it is possible to detect a human face and execute the process, or to recognize the face of a specific person and execute the process.

センサは、第1ディスプレイに付属するタッチパネルであってもよい。タッチパネルではなく、ディスプレイと別の箇所にタッチセンサを備えていてもよい。 The sensor may be a touch panel attached to the first display. A touch sensor may be provided in a place different from the display instead of the touch panel.

処理回路は、センサにより取得されたジェスチャに基づいて、所定処理を実行してもよい。種々のジェスチャ入力を可能とすることにより、例えば、デバイスを装着している場合に、簡易な動きにより、所望の処理を実行することができる。 The processing circuit may execute a predetermined processing based on the gesture acquired by the sensor. By enabling various gesture inputs, for example, when a device is attached, a desired process can be executed by a simple movement.

センサが感知したジェスチャ情報に基づいて、第1ディスプレイの表示を開始してもよい。すなわち、スタンバイの状態から、所定のジェスチャに基づいて、画面の表示を介することもできる。 The display of the first display may be started based on the gesture information sensed by the sensor. That is, it is also possible to display the screen from the standby state based on a predetermined gesture.

センサが感知したジェスチャ情報に基づいて、第1ディスプレイが表示する第2ディスプレイの領域又は姿勢を変更してもよい。このように、任意のジェスチャ入力により、第1ディスプレイに表示する第2ディスプレイの領域等を変更することもできる。 The area or posture of the second display displayed by the first display may be changed based on the gesture information sensed by the sensor. In this way, the area of the second display displayed on the first display can be changed by arbitrary gesture input.

センサが感知したジェスチャを、第1ディスプレイに表示してもよい。ジェスチャを表示することにより、ユーザは、自らが行ったジェスチャが確実に入力されたか否かを判断することができる。 The gesture sensed by the sensor may be displayed on the first display. By displaying the gesture, the user can determine whether or not the gesture performed by the user is surely input.

センサが感知したジェスチャにアバターを付与して第1ディスプレイに表示してもよい。例えば、ユーザが好きなキャラクタ等のアバターに変更してもよいし、第1ディスプレイに表示されている第2ディスプレイの映像等が邪魔されないようなアバターに変更してもよい。 An avatar may be attached to the gesture detected by the sensor and displayed on the first display. For example, the avatar may be changed to an avatar such as a character that the user likes, or the avatar may be changed so that the image of the second display displayed on the first display is not disturbed.

ジェスチャは、第1ディスプレイに対するジェスチャであってもよい。例えば、第1ディスプレイはタッチパネルを備え、当該第1ディスプレイに対してジェスチャ入力をしてもよい。 The gesture may be a gesture for the first display. For example, the first display may be provided with a touch panel, and gesture input may be made to the first display.

ジェスチャは、第2ディスプレイに対するジェスチャであってもよい。例えば、デバイスは、カメラ、測距センサ等のセンサを備え、仮想ディスプレイのある領域にユーザが仮想的に接触して、その仮想的な接触状態においてジェスチャを入力可能としてもよい。例えば、第2ディスプレイ上に所定のスワイプ動作をする等を、ジェスチャ入力として認識してもよい。 The gesture may be a gesture for the second display. For example, the device may include sensors such as a camera and a distance measuring sensor so that a user can virtually contact an area of a virtual display and input a gesture in the virtual contact state. For example, a predetermined swipe operation on the second display may be recognized as a gesture input.

処理回路は、ジェスチャに基づいて、第1ディスプレイに対する第2ディスプレイの位置を変更してもよい。このように、第1ディスプレイの位置を固定した状態で、第2ディスプレイの位置が変更されてもよい。 The processing circuit may change the position of the second display with respect to the first display based on the gesture. In this way, the position of the second display may be changed while the position of the first display is fixed.

ジェスチャに対するフィードバック処理を実行する、フィードバック処理部、をさらに備えてもよい。上記のように、第2ディスプレイに対してジェスチャ入力をする場合、ユーザは、空間内の仮想のディスプレイと接触することとなる。この場合、ユーザは、仮想ディスプレイに接触しているか否かを感知することができない。そこで、ユーザが仮想ディスプレイに接触している場合に、フィードバック処理をユーザに対して行ってもよい。 A feedback processing unit, which executes feedback processing for gestures, may be further provided. As described above, when the gesture input is made to the second display, the user comes into contact with the virtual display in the space. In this case, the user cannot detect whether or not the user is in contact with the virtual display. Therefore, when the user is in contact with the virtual display, the feedback process may be performed on the user.

フィードバック処理部は、バイブレータを備えてもよい。例えば、アクチュエータにより振動するバイブレータを備え、ユーザが仮想ディスプレイに接触している状況に応じて、振動状態を変化させる等により、ユーザに仮想ディスプレイと接触していることを伝達してもよい。 The feedback processing unit may include a vibrator. For example, a vibrator that vibrates by an actuator may be provided, and the user may be informed that the user is in contact with the virtual display by changing the vibration state according to the situation in which the user is in contact with the virtual display.

フィードバック処理部は、スピーカを備えてもよい。上記のバイブレータの代わりに、又は、バイブレータとともに、スピーカを備え、音による通知を行ってもよい。 The feedback processing unit may include a speaker. A speaker may be provided in place of the above-mentioned vibrator or together with the vibrator to perform sound notification.

センサは、マイクであってもよい。処理回路は、このマイクが感知したユーザの音声情報に基づいて、所定処理を実行してもよい。入力デバイスとして、マイクを備え、音声又は環境音の情報を感知してもよい。 The sensor may be a microphone. The processing circuit may execute a predetermined process based on the voice information of the user sensed by the microphone. As an input device, a microphone may be provided and information of voice or environmental sound may be sensed.

第1ディスプレイの表示は、ユーザ又は第1ディスプレイが移動した場合に、第2ディスプレイに対する相対的な運動による運動視差に基づいて変化してもよい。運動視差に基づいて実ディスプレイにおける仮想ディスプレイの表示領域等を変更することにより、ユーザビリティを向上させたり、臨場感を向上させたりすることもできる。 The display of the first display may change based on the motion parallax due to the relative movement to the second display when the user or the first display moves. By changing the display area of the virtual display in the real display based on the motion parallax, usability can be improved and the sense of presence can be improved.

外部と情報を送受信する、通信部、をさらに備えてもよい。そして、通信部を介して外部デバイスとの相対的な位置関係を通信部より受信し、当該位置関係に基づいて、第1ディスプレイの表示を更新してもよい。例えば、外部のデバイスとの相対的な位置関係により、仮想ディスプレイをAR空間のオブジェクト情報を配置等する仮想空間としてもよく、実ディスプレイをこのAR内の特定のオブジェクト等を、実際の背景と重畳して表示するディスプレイとして機能させることもできる。 It may further include a communication unit that transmits / receives information to and from the outside. Then, the relative positional relationship with the external device may be received from the communication unit via the communication unit, and the display on the first display may be updated based on the positional relationship. For example, depending on the relative positional relationship with an external device, the virtual display may be used as a virtual space for arranging object information in AR space, and the real display may be superimposed on a specific object in this AR with the actual background. It can also function as a display to display.

第1ディスプレイは、平面状又は曲面状の2次元のディスプレイであってもよい。このように、実ディスプレイの形状は、平面に限定されるものではない。 The first display may be a two-dimensional display having a flat surface or a curved surface. As described above, the shape of the actual display is not limited to the plane.

第1ディスプレイは、処理回路において仮想的に生成されるユーザの体の一部の形状を有する仮想ディスプレイであってもよい。そして、プロジェクタ機能を備える発光部から表示面としてユーザの体の一部を利用するものであってもよい。すなわち、実ディスプレイは、投影型のディスプレイであってもよい。 The first display may be a virtual display having a shape of a part of the user's body that is virtually generated in the processing circuit. Then, a part of the user's body may be used as a display surface from the light emitting unit having a projector function. That is, the actual display may be a projection type display.

第1ディスプレイは、3次元ディスプレイであってもよい。例えば、ライトフィールドディスプレイ等の空間に映像等を投射するディスプレイであってもよい。 The first display may be a three-dimensional display. For example, it may be a display that projects an image or the like into a space such as a light field display.

第2ディスプレイは、3Dオブジェクトを投影する3次元的なディスプレイであってもよい。仮想ディスプレイの形状は、実ディスプレイの形状以上に柔軟性を持たせることができる。例えば、仮想ディスプレイは、仮想空間(VR空間、AR空間等)そのものとして定義されるものであってもよい。 The second display may be a three-dimensional display that projects a 3D object. The shape of the virtual display can be more flexible than the shape of the real display. For example, the virtual display may be defined as a virtual space (VR space, AR space, etc.) itself.

第2ディスプレイは、ユーザと第1ディスプレイとの間に定義されてもよい。 The second display may be defined between the user and the first display.

第2ディスプレイは、ユーザから第1ディスプレイよりも遠くに定義されてもよい。このように、第2ディスプレイの位置に対する第1ディスプレイの位置、又は、見方によっては、第1ディスプレイの位置に対する第2ディスプレイの位置は、任意にとることが可能である。 The second display may be defined farther than the first display from the user. As described above, the position of the first display with respect to the position of the second display, or the position of the second display with respect to the position of the first display can be arbitrarily set depending on the viewpoint.

処理回路は、第1ディスプレイを介して第2ディスプレイに表示されているコンテンツを表示するモードと、コンテンツを第1ディスプレイに直接表示するモードと、を切り替え可能であってもよい。すなわち、実ディスプレイは、仮想ディスプレイを投影するディスプレイとして原則起動するものであってもよいし、実ディスプレイに固有の表示を実行するものとして原則起動するものであってもよい。 The processing circuit may be switchable between a mode for displaying the content displayed on the second display via the first display and a mode for displaying the content directly on the first display. That is, the real display may be activated in principle as a display that projects a virtual display, or may be activated in principle as a display that is unique to the real display.

デバイスは、ユーザの腕に装着するウェアラブルデバイスでああってもよい。例えば、腕時計型(スマートウォッチ等)の形態であってもよい。 The device may be a wearable device worn on the user's arm. For example, it may be in the form of a watch type (smart watch or the like).

デバイスは、眼鏡型のウェアラブルデバイスであってもよい。この場合、第1ディスプレイは、眼鏡型のウェアラブルデバイスのレンズに備えられてもよい。眼鏡型とすることにより、実ディスプレイの閲覧をより意識することなく行うことができる。 The device may be a glasses-type wearable device. In this case, the first display may be provided on the lens of a spectacle-type wearable device. By using the glasses type, it is possible to browse the actual display without being more conscious of it.

第1ディスプレイは、ユーザからの視点に対して透過した表示をした上で、第2ディスプレイに表示されているコンテンツを重ねて表示してもよい。例えば、眼鏡型デバイスである場合に、仮想ディスプレイのコンテンツと、実際にユーザが見るコンテンツとを重畳して閲覧することができる。 The first display may display the content displayed on the second display in an overlapping manner after displaying the content transparent to the viewpoint from the user. For example, in the case of a spectacle-type device, the content of the virtual display and the content actually viewed by the user can be superimposed and viewed.

第2ディスプレイは、複数ユーザがアクセスできる仮想空間内の仮想現実を投影するディスプレイであってもよく、デバイスにより、複数ユーザが同じ仮想現実を体験してもよい。例えば、遠隔会議システム等を行う場合に、複数のユーザが共有したコンテンツを異なる角度又は同じ角度から見ることが可能となる。 The second display may be a display that projects a virtual reality in a virtual space that can be accessed by a plurality of users, and the device may allow a plurality of users to experience the same virtual reality. For example, when performing a remote conference system or the like, it is possible to view the contents shared by a plurality of users from different angles or the same angle.

第2ディスプレイは、仮想空間内の仮想現実を投影するディスプレイであってもよく、仮想現実は、遠隔地に存在する別の装置のセンサの感知情報により再構成されてもよい。 The second display may be a display that projects the virtual reality in the virtual space, and the virtual reality may be reconstructed by the sensor sensing information of another device located in a remote place.

処理回路は、ユーザの視力に基づいて、第1ディスプレイに表示する内容を再構成してもよい。 The processing circuit may reconstruct the content displayed on the first display based on the user's visual acuity.

処理回路は、周囲の明るさの環境に基づいて、第1ディスプレイにダイナミックレンジを変換した画像を表示してもよい。このように、ユーザビリティを向上する処理を実行してもよい。 The processing circuit may display an image having a converted dynamic range on the first display based on the environment of ambient brightness. In this way, the process for improving usability may be executed.

処理回路は、第1ディスプレイに望遠鏡を介した第2ディスプレイの一部又は全部の画像を表示してもよい。 The processing circuit may display a part or all of the image of the second display via the telescope on the first display.

処理回路は、第1ディスプレイに顕微鏡を介した第2ディスプレイの一部又は全部の画像を表示してもよい。このように、カメラをもちいて興味のある対象を観察できるような処理を実行してもよい。 The processing circuit may display a part or all of the image of the second display through the microscope on the first display. In this way, you may use the camera to perform processing that allows you to observe the object of interest.

デバイスは、変形可能であってもよい。デバイスは、1つの形態に限られず、物理的に変形可能な2以上の形態、例えば、腕時計型と眼鏡型と、を有していてもよい。 The device may be deformable. The device is not limited to one form, and may have two or more physically deformable forms, for example, a wristwatch type and a spectacle type.

処理回路は、デバイスを身につけているユーザの所定点を基準とする第1座標系と、ユーザがデバイスを身につけている点を基準とする第2座標系と、ユーザの目を基準とする第3座標系と、第2ディスプレイの所定点を基準とする第4座標系と、に基づいて、第1ディスプレイに表示する第2ディスプレイの領域及び方向を設定してもよい。 The processing circuit is based on the first coordinate system based on a predetermined point of the user wearing the device, the second coordinate system based on the point on which the user is wearing the device, and the eyes of the user. The area and direction of the second display to be displayed on the first display may be set based on the third coordinate system and the fourth coordinate system based on a predetermined point of the second display.

処理回路は、ユーザの所定点を基準に、第2ディスプレイの位置を仮想的に定義してもよい。 The processing circuit may virtually define the position of the second display with respect to a predetermined point of the user.

処理回路は、第2座標系における第1ディスプレイの位置を、第1座標系に変換し、第3座標系におけるユーザの目の位置を、第1座標系に変換し、ユーザの目から第1ディスプレイを介して第2ディスプレイを見た場合の第1ディスプレイに表示する領域を算出し、第1ディスプレイに第2ディスプレイの一部又は全部の領域を表示してもよい。 The processing circuit converts the position of the first display in the second coordinate system into the first coordinate system, converts the position of the user's eye in the third coordinate system into the first coordinate system, and converts the position of the user's eye into the first coordinate system, and the first from the user's eye. The area to be displayed on the first display when the second display is viewed through the display may be calculated, and a part or all of the area of the second display may be displayed on the first display.

処理回路は、オイラー角を用いて第2座標系から第1座標系への座標変換を実行してもよい。 The processing circuit may perform coordinate transformation from the second coordinate system to the first coordinate system using Euler angles.

処理回路は、クォータニオンを用いて第2座標系から第1座標系への座標変換を実行してもよい。 The processing circuit may perform a coordinate transformation from the second coordinate system to the first coordinate system using a quaternion.

処理回路は、回転行列を用いて第2座標系から第1座標系への座標変換を実行してもよい。 The processing circuit may perform a coordinate transformation from the second coordinate system to the first coordinate system using a rotation matrix.

処理回路は、第2ディスプレイからの相対的な第1ディスプレイの位置及び姿勢を算出し、算出した第1ディスプレイの位置及び姿勢に基づいて、第2ディスプレイの一部又は全部に表示される内容を第1ディスプレイに投影変換して表示してもよい。 The processing circuit calculates the position and orientation of the first display relative to the second display, and based on the calculated position and orientation of the first display, the content displayed on a part or all of the second display is displayed. It may be projected and converted to the first display.

座標系には、直交座標系、円柱座標系又は球座標系を用いてもよい。このように、処理回路は、種々の方法、手段により仮想ディスプレイを実現し、コンテンツを実ディスプレイに表示させてもよい。 As the coordinate system, an orthogonal coordinate system, a cylindrical coordinate system, or a spherical coordinate system may be used. As described above, the processing circuit may realize a virtual display by various methods and means, and display the contents on the real display.

一実施形態によれば、制御方法は、処理回路に、上記のいずれかに記載の処理を実行させる方法である。 According to one embodiment, the control method is a method of causing the processing circuit to perform the process described in any of the above.

一実施形態によれば、プログラムは、処理回路に、上記のいずれかに記載の処理を実行させる。このように、上記の処理は、処理回路において、ソフトウェアによる情報処理が実ディスプレイ等のハードウェアを用いて具体的に実装されるものであってもよい。 According to one embodiment, the program causes the processing circuit to perform the process described in any of the above. As described above, in the processing circuit, information processing by software may be specifically implemented by using hardware such as an actual display.

一実施形態に係るウェアラブルデバイスの使用例を模式的に示す図。The figure which shows typically the use example of the wearable device which concerns on one Embodiment. 一実施形態に係るウェアラブルデバイスの一例を模式的に示すブロック図。The block diagram schematically showing an example of the wearable device which concerns on one Embodiment. 一実施形態に係るウェアラブルデバイスの一例を模式的に示すブロック図。The block diagram schematically showing an example of the wearable device which concerns on one Embodiment. 一実施形態に係るウェアラブルデバイスの処理の一例を示すフローチャート。The flowchart which shows an example of the processing of the wearable device which concerns on one Embodiment. 一実施形態に係るウェアラブルデバイスの使用例を模式的に示す図。The figure which shows typically the use example of the wearable device which concerns on one Embodiment. 一実施形態に係るウェアラブルデバイスの使用例を模式的に示す図。The figure which shows typically the use example of the wearable device which concerns on one Embodiment. 一実施形態に係る第1ディスプレイに出力される第2ディスプレイの領域の一例を示す図。The figure which shows an example of the area of the 2nd display output to the 1st display which concerns on one Embodiment. 一実施形態に係る第1ディスプレイに出力される第2ディスプレイの映像等の一部の一例を示す図。The figure which shows a part example of the image of the 2nd display which is output to the 1st display which concerns on one Embodiment. 一実施形態に係る第1ディスプレイに出力される第2ディスプレイの領域の一例を示す図。The figure which shows an example of the area of the 2nd display output to the 1st display which concerns on one Embodiment. 一実施形態に係る第1ディスプレイに出力される第2ディスプレイの映像等の一部の一例を示す図。The figure which shows a part example of the image of the 2nd display which is output to the 1st display which concerns on one Embodiment. 一実施形態に係るウェアラブルデバイスの一例を模式的に示すブロック図。The block diagram schematically showing an example of the wearable device which concerns on one Embodiment. 一実施形態に係るジェスチャ入力の一例を模式的に示す図。The figure which shows an example of the gesture input which concerns on one Embodiment schematically. 一実施形態に係るジェスチャ入力の一例を模式的に示す図。The figure which shows an example of the gesture input which concerns on one Embodiment schematically. 一実施形態に係るジェスチャ入力の一例を模式的に示す図。The figure which shows an example of the gesture input which concerns on one Embodiment schematically. 一実施形態に係るジェスチャ入力の一例を模式的に示す図。The figure which shows an example of the gesture input which concerns on one Embodiment schematically. 一実施形態に係るジェスチャ入力の一例を模式的に示す図。The figure which shows an example of the gesture input which concerns on one Embodiment schematically. 一実施形態に係るジェスチャ入力の一例を模式的に示す図。The figure which shows an example of the gesture input which concerns on one Embodiment schematically. 一実施形態に係るジェスチャ入力の一例を模式的に示す図。The figure which shows an example of the gesture input which concerns on one Embodiment schematically. 一実施形態に係るジェスチャ入力の一例を模式的に示す図。The figure which shows an example of the gesture input which concerns on one Embodiment schematically. 一実施形態に係るジェスチャ入力による第2ディスプレイの移動の一例を模式的に示す図。The figure which shows typically an example of the movement of the 2nd display by the gesture input which concerns on one Embodiment. 一実施形態に係るジェスチャ入力による第2ディスプレイの移動の一例を模式的に示す図。The figure which shows typically an example of the movement of the 2nd display by the gesture input which concerns on one Embodiment.

以下、図面を参照して本開示における実施形態の説明をする。図面は、説明のために用いるものであり、実際の装置における各部の構成の形状、サイズ、又は、他の構成とのサイズの比等が図に示されている通りである必要はない。また、図面は、簡略化して書かれているため、図に書かれている以外にも実装上必要な構成は、適切に備えるものとする。 Hereinafter, embodiments in the present disclosure will be described with reference to the drawings. The drawings are for illustration purposes only, and the shape, size, or size ratio of each part configuration to other configurations in an actual device need not be as shown in the figure. In addition, since the drawings are written in a simplified form, it is assumed that configurations necessary for mounting other than those shown in the drawings are appropriately prepared.

(第1実施形態)
図1は、ユーザが一実施形態に係るウェアラブルデバイスを装着して利用している一例を模式的に示す図である。この図1に示すように、一例として、ウェアラブルデバイス1は、ユーザが腕に装着する腕時計型のデバイスである。本実施形態においては、ウェアラブルデバイス1は、その表示面である第1ディスプレイを介して、仮想的なディスプレイである第2ディスプレイ2に出力されている、又は、出力されていると仮定する表示を行う。第2ディスプレイ2は、例えば、ウェアラブルデバイス1内の処理回路において仮想的に定義されるディスプレイであり、第2ディスプレイ2として、実際の物理的なディスプレイが存在するわけではない。例えば、第2ディスプレイ2は、ウェアラブルデバイス1に備えられる第1ディスプレイより広い表示領域を有し、第1ディスプレイに出力する情報よりも多くの情報を表示するディスプレイとして定義されてもよい。これには限られず、第2ディスプレイの表示領域が、第1ディスプレイの表示領域と同等、又は、第1ディスプレイよりも狭い表示領域を有するものであってもよい。
(First Embodiment)
FIG. 1 is a diagram schematically showing an example in which a user wears and uses a wearable device according to an embodiment. As shown in FIG. 1, as an example, the wearable device 1 is a wristwatch-type device worn by a user on the wrist. In the present embodiment, the wearable device 1 displays a display that is output to or is assumed to be output to the second display 2, which is a virtual display, via the first display, which is the display surface thereof. conduct. The second display 2 is, for example, a display virtually defined in the processing circuit in the wearable device 1, and the second display 2 does not have an actual physical display. For example, the second display 2 may be defined as a display having a wider display area than the first display provided in the wearable device 1 and displaying more information than the information output to the first display. The present invention is not limited to this, and the display area of the second display may have a display area equal to or narrower than the display area of the first display.

具体的な例としては、第2ディスプレイ2に広域の地図が仮想的に表示されるものとし、この一部又は全部をウェアラブルデバイス1の第1ディスプレイを介して窓を通してみるようにユーザが見ることができる。 As a specific example, it is assumed that a wide area map is virtually displayed on the second display 2, and a user sees a part or all of the map through the window through the first display of the wearable device 1. Can be done.

なお、本開示においては、限定されない一形態として、腕時計型のデバイスを中心に説明をするが、これは一例としてあげられるものである。すなわち、本開示の発明は、腕時計型のデバイスに限定されるものではない。例えば、装着型のデバイスである、眼鏡、スマートフォンのような大きさを有する腕に装着するデバイス、また、腕時計型から眼鏡型へと変形するデバイス等であってもよいし、これらの例にも限定されるものではない。 In this disclosure, a wristwatch-type device will be mainly described as an unrestricted form, but this is given as an example. That is, the invention of the present disclosure is not limited to a wristwatch-type device. For example, it may be a wearable device such as eyeglasses, a device worn on an arm having a size such as a smartphone, a device that transforms from a wristwatch type to an eyeglass type, and the like. Not limited.

例えば、装着型ではなくとも、バンド等を用いて腕に装着型と準ずるデバイスを装着型デバイスとして扱ってもよい。さらには、装着型ではないデバイス、例えば、手に持って操作及び表示をするデバイスに対しても同様の処理を実現することが可能である。つまり、ウェアラブルデバイスとして説明するが、これに準ずるデバイスも本開示の形態には含まれる。 For example, even if it is not a wearable type, a device similar to a wearable type may be treated as a wearable device by using a band or the like. Furthermore, it is possible to realize the same processing for a device that is not a wearable type, for example, a device that is held in a hand for operation and display. That is, although it will be described as a wearable device, a device similar thereto is also included in the form of the present disclosure.

図2は、一実施形態に係るウェアラブルデバイス1を模式的に示すブロック図である。ウェアラブルデバイス1は、入力部10と、記憶部12と、処理部14と、出力部16と、を備える。この例は、簡易な構成を示すものであり、さらに必要となる部が適切に備えられていてもよい。 FIG. 2 is a block diagram schematically showing the wearable device 1 according to the embodiment. The wearable device 1 includes an input unit 10, a storage unit 12, a processing unit 14, and an output unit 16. This example shows a simple configuration, and may be appropriately provided with necessary parts.

入力部10は、例えば、種々のセンサを備え、ウェアラブルデバイス1の状態を取得する。また、入力部10は、ユーザからの要求を取得するためのユーザインタフェースを備えていてもよい。 The input unit 10 includes, for example, various sensors and acquires the state of the wearable device 1. Further, the input unit 10 may include a user interface for acquiring a request from the user.

記憶部12は、例えば、非一時的又は一時的なメモリ領域を備えて構成される。この実装はどのような実装でもよく、例えば、各種ROM(Read Only Memory)、RAM(Random Access Memory)を備えていてもよい。また、キャッシュ領域を備えていてもよい。処理部が、ソフトウェアによる情報処理がハードウェア資源を用いて具体的に実現されるように処理を実行する場合には、当該ソフトウェアの情報処理に必要となるプログラム等を記憶してもよい。記憶部12は、その他、入力部10から入力したデータを格納したり、ウェアラブルデバイス1に必要となるデータ等を格納したりしてもよい。 The storage unit 12 is configured to include, for example, a non-temporary or temporary memory area. This implementation may be any implementation, and may include, for example, various ROMs (Read Only Memory) and RAMs (Random Access Memory). Further, a cache area may be provided. When the processing unit executes processing so that information processing by software is concretely realized by using hardware resources, a program or the like required for information processing of the software may be stored. The storage unit 12 may also store data input from the input unit 10 or store data required for the wearable device 1.

処理部14は、例えば、処理回路を備えて構成される。処理回路は、例えば、CPU(Central Processing Unit)等であってもよい。また、処理部14は、CPUの他にも処理を適切に実行する、高速に実行する、又は、精度よく実行するための各種アクセラレータを備えていてもよい。例えば、前述の第2ディスプレイ2は、処理部14が仮想空間内に仮想的な映像を出力するように定義してもよい。この場合、映像等の情報は、記憶部12に格納されていてもよい。そして、処理部14が第1ディスプレイから出力する情報をこの第2ディスプレイから切り出して出力してもよい。別の例として、第1ディスプレイに表示されると推定される領域における第2ディスプレイの表示のみ(又は、その周辺の情報を含めた情報)を処理部14が演算を実行して出力してもよい。 The processing unit 14 is configured to include, for example, a processing circuit. The processing circuit may be, for example, a CPU (Central Processing Unit) or the like. In addition to the CPU, the processing unit 14 may include various accelerators for appropriately executing processing, executing processing at high speed, or executing processing with high accuracy. For example, the above-mentioned second display 2 may be defined so that the processing unit 14 outputs a virtual image in the virtual space. In this case, information such as video may be stored in the storage unit 12. Then, the information output from the first display by the processing unit 14 may be cut out from the second display and output. As another example, even if the processing unit 14 executes an operation and outputs only the display of the second display (or the information including the information around it) in the area estimated to be displayed on the first display. good.

出力部16は、例えば、第1ディスプレイを備える。この第1ディスプレイは、ウェアラブルデバイス1に備えられるディスプレイである。処理部14は、第2ディスプレイ2の情報をユーザが第1ディスプレイを介して覗く状態を推定し、第1ディスプレイに出力する映像又は画像(以下、映像等と記載する)信号を演算処理し、取得された映像等を第1ディスプレイに表示する。 The output unit 16 includes, for example, a first display. This first display is a display provided in the wearable device 1. The processing unit 14 estimates a state in which the user looks into the information of the second display 2 through the first display, and performs arithmetic processing on a video or image (hereinafter referred to as video or the like) signal to be output to the first display. The acquired video, etc. is displayed on the first display.

ウェアラブルデバイス1の基本的な構成は、以上の通りである。以下、より具体的な例について、詳しく説明する。 The basic configuration of the wearable device 1 is as described above. Hereinafter, a more specific example will be described in detail.

図3は、腕時計型のウェアラブルデバイス1の一例を模式的に示すブロック図である。ウェアラブルデバイス1は、慣性センサ100と、記憶部12と、処理部14と、第1ディスプレイ160と、を備える。 FIG. 3 is a block diagram schematically showing an example of a wristwatch-type wearable device 1. The wearable device 1 includes an inertial sensor 100, a storage unit 12, a processing unit 14, and a first display 160.

慣性センサ100は、ウェアラブルデバイス1の入力部10に備えられるセンサである。この慣性センサ100は、ウェアラブルデバイス1の動き、すなわち、ユーザが静止又は慣性運動をしている場合にウェアラブルデバイス1がどのように動かされたかについて加速度等を取得して当該情報を出力するセンサである。慣性センサ100は、例えば、加速度センサ、ジャイロセンサ等を備えてもよいし、これらが複数の軸に対する動きをとらえるように複数備えられていてもよい。この他、慣性センサ100は、角速度を取得してもよく、また、複数方向の加速度をとらえる多軸のセンサであってもよい。 The inertial sensor 100 is a sensor provided in the input unit 10 of the wearable device 1. The inertial sensor 100 is a sensor that acquires acceleration and the like about the movement of the wearable device 1, that is, how the wearable device 1 is moved when the user is stationary or inertial movement, and outputs the information. be. The inertial sensor 100 may be provided with, for example, an acceleration sensor, a gyro sensor, or the like, or may be provided with a plurality of these so as to capture movements with respect to a plurality of axes. In addition, the inertial sensor 100 may acquire an angular velocity, or may be a multi-axis sensor that captures acceleration in a plurality of directions.

第1ディスプレイ160は、ウェアラブルデバイス1の出力部16に備えられる出力インタフェースの1つである。ウェアラブルデバイス1は、第1ディスプレイ160に表示を行うことにより、ユーザへと情報を出力する。第1ディスプレイ160は、例えば、第2ディスプレイ2をユーザ側から覗き見る窓のような役割を果たす。ユーザは、情報を見たい位置にウェアラブルデバイス1を移動したり、情報を見たい角度にウェアラブルデバイス1の姿勢を調整したりすることにより、第2ディスプレイ2に仮想的に表示される映像等における任意の一部又は全部の情報を任意の姿勢から見ることが可能となる。このように、ウェアラブルデバイス1は、VR(Virtual Reality)又はAR(Augmented Reality)空間内に存在する第2ディスプレイ2に表示される映像等を見ることができる。 The first display 160 is one of the output interfaces provided in the output unit 16 of the wearable device 1. The wearable device 1 outputs information to the user by displaying the information on the first display 160. The first display 160 acts as, for example, a window for peeping at the second display 2 from the user side. By moving the wearable device 1 to a position where the user wants to see the information or adjusting the posture of the wearable device 1 to an angle where the user wants to see the information, the user can virtually display the image on the second display 2. It is possible to see any part or all of the information from any posture. In this way, the wearable device 1 can see an image or the like displayed on the second display 2 existing in the VR (Virtual Reality) or AR (Augmented Reality) space.

例えば、ユーザは、ウェアラブルデバイス1が装着されている腕を所定ジェスチャにしたがい動かすことによりウェアラブルデバイス1に対して要求を入力することができる。このジェスチャは、慣性センサ100により取得され、処理部14により処理される。また、慣性センサ100が取得したウェアラブルデバイス1の移動情報に基づいて、処理部14は、第2ディスプレイ2に対する第1ディスプレイ160の位置、姿勢を取得する。 For example, the user can input a request to the wearable device 1 by moving the arm on which the wearable device 1 is attached according to a predetermined gesture. This gesture is acquired by the inertial sensor 100 and processed by the processing unit 14. Further, based on the movement information of the wearable device 1 acquired by the inertial sensor 100, the processing unit 14 acquires the position and posture of the first display 160 with respect to the second display 2.

処理部14は、ユーザのからだの3点の座標を抽出し、この3点の相対的な位置姿勢関係から、第1ディスプレイ160を介して第2ディスプレイ2の一部又は全部を表示する。そして、ユーザは、ウェアラブルデバイス1の第1ディスプレイ160を介して、第2ディスプレイ2に表示されている映像等の一部又は全部を閲覧することが可能となる。 The processing unit 14 extracts the coordinates of the three points of the user's body, and displays a part or the whole of the second display 2 via the first display 160 from the relative position-posture relationship of the three points. Then, the user can view a part or all of the image or the like displayed on the second display 2 through the first display 160 of the wearable device 1.

ユーザは、仮想的な第2ディスプレイ2上に表示されている映像等において、第1ディスプレイ160を介して見ることのできる領域を変更することができる。ユーザは、例えば、ウェアラブルデバイス1を移動させることにより、第1ディスプレイ160に出力されている第2ディスプレイ2の領域を変更する実装としてもよい。ウェアラブルデバイス1は、慣性センサ100により、ウェアラブルデバイス1自体の相対的な位置が移動したことを感知し、この移動情報を処理部14へと出力する。処理部14は、この移動情報に基づいて、第1ディスプレイ160に表示されている映像等の領域を変更する。上記と同様に、この処理は、ウェアラブルデバイス1の位置のみならず、姿勢に関して実行してもよい。 The user can change the area that can be seen through the first display 160 in the image or the like displayed on the virtual second display 2. The user may implement the implementation in which the area of the second display 2 output to the first display 160 is changed by moving the wearable device 1, for example. The wearable device 1 senses that the relative position of the wearable device 1 itself has moved by the inertia sensor 100, and outputs this movement information to the processing unit 14. The processing unit 14 changes an area such as an image displayed on the first display 160 based on this movement information. Similar to the above, this process may be performed not only on the position of the wearable device 1 but also on the posture.

このように、第1ディスプレイ160の位置、姿勢を変化させることにより、処理部14は、第1ディスプレイ160に表示する内容を適切に更新して出力を行う。このため、ユーザは、自らが見たいと望む方向等にウェアラブルデバイス1、すなわち、自らの腕を動かすことにより、第2ディスプレイ2の異なる領域の情報を取得することが可能となる。 By changing the position and posture of the first display 160 in this way, the processing unit 14 appropriately updates the content displayed on the first display 160 and outputs the output. Therefore, the user can acquire information in different areas of the second display 2 by moving the wearable device 1, that is, his / her arm in the direction he / she wants to see.

図4は、本実施形態に係るウェアラブルデバイス1の処理の流れを示すフローチャートである。 FIG. 4 is a flowchart showing a processing flow of the wearable device 1 according to the present embodiment.

まず、慣性センサ100により、ウェアラブルデバイス1の状態を感知する(S100)。状態の感知は、上述したように一例として、ユーザが静止又は慣性運動をしている場合に、加速度の変化を取得することにより実現される。例えば、慣性センサ100の感知情報により、ウェアラブルデバイス1がどのように移動したか、又は、どのように姿勢が変化したかを取得することができる。 First, the inertial sensor 100 senses the state of the wearable device 1 (S100). As described above, state sensing is realized, for example, by acquiring a change in acceleration when the user is stationary or in inertial motion. For example, it is possible to acquire how the wearable device 1 has moved or how the posture has changed from the sensing information of the inertial sensor 100.

次に、処理部14は、慣性センサ100の取得した情報に基づいて、ユーザのからだの所定の3点の位置、姿勢の関係を取得する(S102)。ユーザのからだの所定の3点の位置は、例えば、ユーザの胸の位置、目の位置、及び、ウェアラブルデバイス1を装着している位置である。 Next, the processing unit 14 acquires the relationship between the positions and postures of the predetermined three points of the user's body based on the information acquired by the inertial sensor 100 (S102). The predetermined three points of the user's body are, for example, the position of the user's chest, the position of the eyes, and the position where the wearable device 1 is worn.

この3点の位置は、例えば、ウェアラブルデバイス1の装着位置、及び、慣性センサ100により取得された動きの様子から算出されてもよい。例えば、ユーザがウェアラブルデバイス1を左腕に、手の甲側に第1ディスプレイ160が向くように装着しているとして、この場合に、慣性センサ100が取得したウェアラブルデバイス1の移動の状態から算出することができる。 The positions of these three points may be calculated from, for example, the mounting position of the wearable device 1 and the state of movement acquired by the inertial sensor 100. For example, assuming that the user wears the wearable device 1 on his left arm and the first display 160 faces the back of his hand, in this case, it can be calculated from the movement state of the wearable device 1 acquired by the inertial sensor 100. can.

より詳しくは、ユーザのからだという拘束条件に従ってウェアラブルデバイス1は、動作する。この拘束条件にも基づいて、処理部14は、所定の3点の位置を推定して取得する。一例として、ユーザが、腕を下ろした状態から胸の前へとウェアラブルデバイス1を移動させて静止させる場合を仮定して、移動前の位置と、移動後の静止した位置とに基づいて、胸の位置を推定する。ユーザのこのような動きは、一般的な動きである。また、以下に説明するように、腕を下ろした状態という基準状態を設定せずに、任意の状態からユーザの腕の動きを慣性センサ100により感知して、ウェアラブルデバイス1を見る状態を推定することも可能である。 More specifically, the wearable device 1 operates according to the constraint of the user's body. Based on this constraint condition, the processing unit 14 estimates and acquires the positions of the predetermined three points. As an example, assuming that the user moves the wearable device 1 from the arm down state to the front of the chest and makes it stand still, the chest is based on the position before the move and the resting position after the move. Estimate the position of. Such movements of the user are general movements. Further, as described below, the state in which the wearable device 1 is viewed is estimated by detecting the movement of the user's arm from an arbitrary state by the inertial sensor 100 without setting the reference state of the arm lowered state. It is also possible.

図5は、ユーザがウェアラブルデバイス1を見ている一例を示す図である。この図において、座標系が3つ示されているが、これは、原点を特定するために示すものではなく、方向を示す軸として示す。原点は、任意の点とすることができるが、例えば、第1座標系の原点は、第1所定点W、第2座標系の原点は、第2所定点R、第3座標系の原点は、第3所定点E、等と定義してもよい。また、計算がより高速又はより正確に実行できるように、原点を定義してもよい。 FIG. 5 is a diagram showing an example in which the user is looking at the wearable device 1. In this figure, three coordinate systems are shown, but they are not shown to identify the origin, but as axes that indicate the direction. The origin can be any point, but for example, the origin of the first coordinate system is the first predetermined point W, the origin of the second coordinate system is the second predetermined point R, and the origin of the third coordinate system is. , Third predetermined point E, etc. may be defined. The origin may also be defined so that the calculation can be performed faster or more accurately.

この図にあるように、例えば、ユーザの第1所定点Wである、胸の位置を基準とした第1座標系を定義する。軸は、一例として、ユーザの身長方向をz軸とし、z軸に直角に交わる軸、すなわち、ユーザが直立した場合に水平面にある軸であり、ユーザの肩を結んだ方向である軸をx軸、x軸及びz軸と直角に交わる軸をy軸とする。軸の取り方は、3次元座標が適切に定義される座標系であれば任意であり、このような座標系の取り方に限定されるものではない。 As shown in this figure, for example, a first coordinate system based on the position of the chest, which is the user's first predetermined point W, is defined. As an example, the axis is the z-axis in the height direction of the user, and the axis that intersects the z-axis at right angles, that is, the axis that is in the horizontal plane when the user stands upright, and the axis that connects the user's shoulders is x. The y-axis is the axis that intersects the axis, x-axis, and z-axis at right angles. The method of taking the axis is arbitrary as long as it is a coordinate system in which the three-dimensional coordinates are appropriately defined, and is not limited to the method of taking such a coordinate system.

同様に、ウェアラブルデバイス1のうち任意の1点である第2所定点Rを基準とする第2座標系を定義する。軸は、一例として、第1ディスプレイ160のx軸、y軸と、これらの軸と直角に交わる奥行き方向のz軸とする。同様に、軸の取り方は、適切であれば任意であってもよい。第2所定点Rの位置は、図示する上でわかりやすいように、第1ディスプレイ160の中央付近にある点としているが、例えば、第1ディスプレイ160の左上の画素を示す点、中央の点、等、第1ディスプレイ160内の位置が指定できれば、第2所定点R(基準点)の取り方は、任意でよい。 Similarly, a second coordinate system with reference to a second predetermined point R, which is any one point of the wearable device 1, is defined. As an example, the axes are the x-axis and y-axis of the first display 160 and the z-axis in the depth direction that intersects these axes at right angles. Similarly, the method of taking the axis may be arbitrary as long as it is appropriate. The position of the second predetermined point R is set to be a point near the center of the first display 160 for easy understanding in the illustration. For example, a point indicating the upper left pixel of the first display 160, a center point, etc. , As long as the position in the first display 160 can be specified, the method of taking the second predetermined point R (reference point) may be arbitrary.

さらに、ユーザの目の位置である第3所定点Eを基準とする第3座標系を定義する。軸は、一例として、ユーザの両目をつないだ軸をx軸、ユーザの頭の方向をy軸として、これらの軸に垂直に交わる軸をz軸としてもよい。上記と同様に、軸の取り方は、適切であれば任意であってもよい。別の例として、第3所定点Eから第1ディスプレイ160(例えば、第2所定点R)の方向をz軸とし、これら2軸に垂直な方向としてy軸を設定してもよい。あるいは、第3座標系は、第2座標系と、原点が異なり、各軸がそれぞれに平行な軸を有する座標系、すなわち、第2座標系を並進移動させた座標系としてもよい。 Further, a third coordinate system based on the third predetermined point E, which is the position of the user's eyes, is defined. As an example, the axis may be the axis connecting both eyes of the user as the x-axis, the direction of the user's head as the y-axis, and the axis perpendicular to these axes as the z-axis. Similar to the above, the method of taking the shaft may be arbitrary as long as it is appropriate. As another example, the direction from the third predetermined point E to the first display 160 (for example, the second predetermined point R) may be set as the z-axis, and the y-axis may be set as the direction perpendicular to these two axes. Alternatively, the third coordinate system may be a coordinate system having a different origin from the second coordinate system and having axes parallel to each axis, that is, a coordinate system obtained by translating the second coordinate system.

なお、図5においては、一例として、第3所定点Eをユーザの左目としたが、これには限られない。例えば、第3所定点を両目の位置の2点の位置としてもよいし、眉間、すなわち、両目の位置の中点としてもよい。例えば、両目の位置とする場合には、第3所定点E、E’を用いて座標系を形成してもよい。このように、第3座標系において2点の基準位置をもうけることにより、例えば、ステレオ映像に対応できるものとしてもよい。 In FIG. 5, as an example, the third predetermined point E is the left eye of the user, but the present invention is not limited to this. For example, the third predetermined point may be the position of two points at the positions of both eyes, or may be the middle point between the eyebrows, that is, the positions of both eyes. For example, in the case of the positions of both eyes, the coordinate system may be formed by using the third predetermined points E and E'. In this way, by having two reference positions in the third coordinate system, for example, a stereo image may be supported.

このように、3つの系列の軸を準備することにより、ユーザの所定の3点の位置を中心とした軸を定義することが可能となる。すなわち、この軸の方向により、各所定点に対する周辺の姿勢を取得することができる。具体的には、第1所定点Wの位置と軸の方向から、ユーザの全体的な位置及び体の全体的な姿勢を取得することができる。第2所定点Rの位置と軸の方向から、ウェアラブルデバイス1の位置及び第1座標系に対する姿勢を取得することができる。第3所定点Eの位置と軸の方向から、ユーザの目の位置及び視線方向を取得することができる。 By preparing the axes of the three series in this way, it is possible to define the axes centered on the positions of the three predetermined points of the user. That is, the posture of the periphery with respect to each predetermined point can be acquired from the direction of this axis. Specifically, the overall position of the user and the overall posture of the body can be acquired from the position of the first predetermined point W and the direction of the axis. From the position of the second predetermined point R and the direction of the axis, the position of the wearable device 1 and the posture with respect to the first coordinate system can be acquired. The position of the user's eyes and the direction of the line of sight can be obtained from the position of the third predetermined point E and the direction of the axis.

上記の所定点は、例えば、デバイスの工場出荷時に適切に定められるものであってもよい。工場出荷時に、所定点として、複数のユーザにおいて取得された各位置を統計的手段により定義したものであってもよい。 The above-mentioned predetermined points may be appropriately determined at the time of factory shipment of the device, for example. At the time of shipment from the factory, each position acquired by a plurality of users may be defined by statistical means as a predetermined point.

また、デバイスの初期起動時に、ユーザが、通常時にウェアラブルデバイス1を見る位置、胸の位置、目の位置を指定することにより、キャリブレーションを実行してもよい。例えば、ユーザが通常時にデバイスを見る腕の位置、胸の位置、目の位置、にそれぞれ指示された通りにウェアラブルデバイス1を移動させて静止又は画面タップ、ボタン押下等の合図を送り、このタイミングにおける慣性センサ100の感知情報に基づいて、処理部14によりキャリブレーションが実行されてもよい。このキャリブレーションのパラメータは、記憶部12に記憶されてもよい。また、初期起動時だけではなく、ユーザが任意のタイミングでキャリブレーションできる構成としてもよい。所定期間キャリブレーションが実行されていない場合には、再キャリブレーションを促す構成としてもよい。 Further, at the initial booting of the device, the user may perform calibration by designating the position where the wearable device 1 is normally viewed, the position of the chest, and the position of the eyes. For example, the wearable device 1 is moved to the position of the arm, the position of the chest, and the position of the eyes when the user normally looks at the device, and a signal such as resting or tapping the screen or pressing a button is sent at this timing. Calibration may be performed by the processing unit 14 based on the sensing information of the inertial sensor 100 in the above. The parameters of this calibration may be stored in the storage unit 12. Further, the configuration may be such that the user can calibrate at an arbitrary timing as well as at the initial startup. If the calibration has not been executed for a predetermined period of time, the configuration may be such that recalibration is urged.

処理部14は、これらの3つの座標系を用いて、ユーザの所定点の位置、及び、姿勢を取得する。 The processing unit 14 acquires the position and posture of a predetermined point of the user by using these three coordinate systems.

図4に戻り、次に、処理部14は、第2ディスプレイ2に表示されている内容を第1ディスプレイ160に表示する内容へと変換する(S104)。この変換は、S102で取得された各点の位置及び各点の周りにおけるユーザ、デバイスの姿勢に基づいて変換される。このステップでは、上記の座標系に加え、さらに、第2ディスプレイ2の表示領域を各座標系と紐付ける必要がある。 Returning to FIG. 4, the processing unit 14 then converts the content displayed on the second display 2 into the content displayed on the first display 160 (S104). This conversion is converted based on the position of each point acquired in S102 and the postures of the user and the device around each point. In this step, in addition to the above coordinate system, it is necessary to further associate the display area of the second display 2 with each coordinate system.

図6は、ウェアラブルデバイス1を使用するユーザと、第2ディスプレイ2のそれぞれの座標系を示す図である。第4座標系は、第2ディスプレイ2上の任意の1点である第4所定点Vを基準として定義される座標系である。第4座標系は、例えば、第2ディスプレイ2のx軸、y軸をそれぞれx軸、y軸とし、ユーザから第2ディスプレイ2を仮想的に見た場合の奥行き方向をz軸としてもよい。 FIG. 6 is a diagram showing a user who uses the wearable device 1 and a coordinate system of the second display 2. The fourth coordinate system is a coordinate system defined with reference to a fourth predetermined point V, which is an arbitrary point on the second display 2. In the fourth coordinate system, for example, the x-axis and y-axis of the second display 2 may be the x-axis and the y-axis, respectively, and the depth direction when the user virtually sees the second display 2 may be the z-axis.

第4所定点Vは、仮想的なディスプレイ上の点であるので、任意に設定することが可能である。処理部14は、第1所定点Wと第4所定点Vとの関係を任意に定義してもよい。逆に言うと、第1所定点Wと、第1座標系の軸の姿勢に基づいて、第2ディスプレイ2の位置を定義してもよい。 Since the fourth predetermined point V is a point on a virtual display, it can be set arbitrarily. The processing unit 14 may arbitrarily define the relationship between the first predetermined point W and the fourth predetermined point V. Conversely, the position of the second display 2 may be defined based on the first predetermined point W and the posture of the axis of the first coordinate system.

より具体的には、処理部14は、第1所定点Wと第1座標系の軸が設定されると、第2ディスプレイ2の位置、形状、大きさ、姿勢等、第2ディスプレイ2を形成するために必要な情報を設定する。この設定は、例えば、記憶部12にあらかじめ格納されているデータに基づいて行ってもよいし、ユーザにより変更可能なデータに基づいて行ってもよい。そして、定義された第2ディスプレイ2に対して第4座標系が設定され、この座標系において映像信号を仮想的に生成する。第2ディスプレイ2の形成と、第4座標系の形成の順番は、これには限られず、先に第4座標系が定義されてもよい。また、第4座標系は設定することなしに、第2ディスプレイ2の存在している領域等の映像を仮想的に表示する領域等が第1座標系において定義されてもよい。 More specifically, when the first predetermined point W and the axis of the first coordinate system are set, the processing unit 14 forms the second display 2 such as the position, shape, size, posture, etc. of the second display 2. Set the necessary information to do so. This setting may be performed, for example, based on the data stored in advance in the storage unit 12, or may be performed based on the data that can be changed by the user. Then, a fourth coordinate system is set for the defined second display 2, and a video signal is virtually generated in this coordinate system. The order of formation of the second display 2 and the formation of the fourth coordinate system is not limited to this, and the fourth coordinate system may be defined first. Further, an area or the like for virtually displaying an image such as an area where the second display 2 exists may be defined in the first coordinate system without setting the fourth coordinate system.

第1所定点Wと第4所定点Vとの位置関係が固定されることにより、ウェアラブルデバイス1が第1所定点W、第2所定点R、第3所定点Eを推定した後、ユーザの目から第1ディスプレイ160を介して、第2ディスプレイ2を見る場合に、適切な映像等を取得し、表示することができる。すなわち、第1所定点Wと第4所定点Vの位置及び軸方向の関係、及び、推定された第1所定点W、第2所定点R、第3所定点Eの位置及び軸方向の関係、に基づいて、第3所定点Eから第1ディスプレイ160を見る場合の第2ディスプレイ2の領域及び姿勢を取得することができる。 By fixing the positional relationship between the first predetermined point W and the fourth predetermined point V, the wearable device 1 estimates the first predetermined point W, the second predetermined point R, and the third predetermined point E, and then the user When viewing the second display 2 from the eyes through the first display 160, it is possible to acquire and display an appropriate image or the like. That is, the relationship between the position and the axial direction of the first predetermined point W and the fourth predetermined point V, and the relationship between the estimated first predetermined point W, the second predetermined point R, and the third predetermined point E in the position and the axial direction. , The area and posture of the second display 2 when the first display 160 is viewed from the third predetermined point E can be acquired.

そこで、処理部14は、各所定点及び座標系の関係に基づいて、第1ディスプレイ160に表示する第2ディスプレイ2の領域及び姿勢を算出する。処理部14は、例えば、種々の投影変換手法により、第1ディスプレイ160に出力する映像等を、第2ディスプレイ2に表示される映像等を変換することにより取得する。 Therefore, the processing unit 14 calculates the area and the posture of the second display 2 to be displayed on the first display 160 based on the relationship between each predetermined point and the coordinate system. The processing unit 14 acquires, for example, an image output to the first display 160 by converting an image or the like displayed on the second display 2 by various projection conversion methods.

ここで、座標変換の一例について具体的に説明する。なお、本形態の変換は、以下の例に限定されるものではない。 Here, an example of coordinate transformation will be specifically described. The conversion of this embodiment is not limited to the following examples.

まず、第1所定点Wを基準に第2所定点Rと第3所定点Eの位置及び姿勢のパラメータを取得する。このパラメータは、それぞれ、[位置3自由度, 姿勢3自由度]の6個の自由度を有する。2つの点があるので、12個の自由度を有する未知のパラメータとなる。 First, the parameters of the positions and postures of the second predetermined point R and the third predetermined point E are acquired with reference to the first predetermined point W. Each of these parameters has 6 degrees of freedom: [3 degrees of freedom in position, 3 degrees of freedom in posture]. Since there are two points, it is an unknown parameter with 12 degrees of freedom.

上述したように、限定されない一例として、第1所定点Wは、ユーザの胸の一点、第2所定点は、第1ディスプレイ160の任意の一点、第3所定点Eは、ユーザの目を示す点である。 As described above, as an example without limitation, the first predetermined point W indicates one point on the user's chest, the second predetermined point indicates any one point on the first display 160, and the third predetermined point E indicates the user's eyes. It is a point.

位置を示すパラメータは、それぞれの点を示す座標として取得することができる。 The parameter indicating the position can be acquired as the coordinates indicating each point.

姿勢を示すパラメータは、例えば、オイラー角で示される。このオイラー角は、それぞれの座標系における角度として取得することができる。例えば、第1所定点Wの位置は、第1座標系における胸の座標、姿勢は、第1座標系における胸の向きを示すオイラー角で示される。第2所定点Rの位置は、第2座標系における座標、姿勢は、第2座標系における第1ディスプレイ160の向き、例えば、第2所定点Rにおける第1ディスプレイ160の法線ベクトル(の単位ベクトル)として示されるベクトルからオイラー角で示されてもよい。第3所定点Eの位置は、第3座標系における座標、姿勢は、第3座標系におけるユーザの目の向いている方向としてオイラー角により示される。 The parameters indicating the posture are indicated by, for example, Euler angles. This Euler angle can be obtained as an angle in each coordinate system. For example, the position of the first predetermined point W is indicated by the coordinates of the chest in the first coordinate system, and the posture is indicated by the Euler angles indicating the direction of the chest in the first coordinate system. The position of the second predetermined point R is the coordinates in the second coordinate system, and the attitude is the direction of the first display 160 in the second coordinate system, for example, the normal vector (unit of) of the first display 160 at the second predetermined point R. It may be shown in Euler angle from the vector shown as (vector). The position of the third predetermined point E is indicated by the coordinates in the third coordinate system, and the posture is indicated by the Euler angles as the direction in which the user's eyes are facing in the third coordinate system.

なお、姿勢は、オイラー角で示すだけではなく、4自由度を有するクォータニオン、又は、回転行列として示されてもよい。オイラー角以外のパラメータで示すことにより、座標軸間の演算において、ジンバルロックを考慮すること無く、より柔軟に適用できる可能性もある。一方で、オイラー角を用いることにより、パラメータを削減することができる。慣性センサによる情報から算出する手順が固定されたものであれば、オイラー角でもあらかじめジンバルロックを回避する算出法により計算式を設定しておくことにより、この問題を回避することは可能である。また、処理部14に備えられる処理回路に基づいて、これらの手法のいずれがパラメータを示す指標として用いられるかが、適切に選択されてもよい。 The posture may be shown not only by Euler angles but also as a quaternion having 4 degrees of freedom or a rotation matrix. By indicating with parameters other than Euler angles, there is a possibility that it can be applied more flexibly without considering gimbal lock in the calculation between the axis. On the other hand, parameters can be reduced by using Euler angles. If the procedure for calculating from the information from the inertial sensor is fixed, it is possible to avoid this problem by setting the calculation formula in advance by a calculation method that avoids gimbal lock even for Euler angles. Further, based on the processing circuit provided in the processing unit 14, which of these methods is used as an index indicating the parameter may be appropriately selected.

処理部14は、慣性センサ100が感知した情報から、第2所定点Rの位置及び姿勢を取得する。この取得は、例えば、慣性センサ100の動きを検知してトレースすることにより実現されてもよい。例えば、ユーザは、手を下げた状態から、第1ディスプレイ160が見られる位置まで、ウェアラブルデバイス1を腕とともに移動させる。このように移動して静止した状態で、第2座標系を設定し、第1所定点Wからの位置を推定する。 The processing unit 14 acquires the position and orientation of the second predetermined point R from the information sensed by the inertial sensor 100. This acquisition may be realized, for example, by detecting and tracing the movement of the inertial sensor 100. For example, the user moves the wearable device 1 with his arm from the state where his hand is lowered to the position where the first display 160 can be seen. In the state of moving and resting in this way, the second coordinate system is set and the position from the first predetermined point W is estimated.

また、時系列データを適切な長さで取得することにより、手を下げた状態、という所定の状態からでなくとも、ユーザがウェアラブルデバイス1の第1ディスプレイ160を見ようとしている状態であることを学習済モデルにより推定することも可能である。これは、種々の動きにおいて、慣性センサ100とモーションキャプチャ等の正しいデータとを対応させることにより、任意の状態から、ユーザが第1ディスプレイ160を見ている状態に遷移したかを検出することができる。 In addition, by acquiring the time-series data with an appropriate length, the user is trying to see the first display 160 of the wearable device 1 even if the user is not in the predetermined state of lowering his / her hand. It is also possible to estimate by a trained model. By associating the inertial sensor 100 with correct data such as motion capture in various movements, it is possible to detect whether the user has transitioned from an arbitrary state to a state in which the user is looking at the first display 160. can.

推定は、腕を様々に動かした場合の慣性センサ100の感知情報、例えば、加速度、角速度の時系列データに基づいた学習済モデルの出力として取得してもよい。学習済モデルは、上記の慣性センサ100の感知情報の時系列と、モーションキャプチャ等の別の手段で取得した正しい位置、姿勢の時系列データをデータベースとして保持しておき、これらのデータを教師データとして訓練した学習済モデルを用いてもよい。そして、慣性センサ100の時系列データから正しいウェアラブルデバイス1の位置、姿勢を出力する学習済モデルを推論器として最適化する。処理部14は、この推論器を用いて第2所定点Rの位置、姿勢を推定してもよい。 The estimation may be acquired as the output of a trained model based on the sensing information of the inertial sensor 100 when the arm is moved variously, for example, the time series data of acceleration and angular velocity. The trained model holds the time series of the sensing information of the inertial sensor 100 described above and the time series data of the correct position and posture acquired by another means such as motion capture as a database, and these data are used as teacher data. A trained model trained as may be used. Then, the trained model that outputs the correct position and posture of the wearable device 1 from the time series data of the inertial sensor 100 is optimized as an inference device. The processing unit 14 may estimate the position and orientation of the second predetermined point R using this inference device.

訓練は、一例として、以下のように実現される。ここで、aを慣性センサ100の感知データ、例えば、加速度と角速度から構成される6次元データ、WpRを第1座標系における第2所定点Rの正しい位置、姿勢を示す6次元データ、Wを重み行列(6 × 6次元)として、式(1)に基づき、Wを機械学習により最適化する。

Figure 2021192178
ここで、d(x, y)は、xとyの距離を求める関数であり、例えば、2次のノルムで表されるが、これに限られるものではなく、適切な関数であればよい。例えば、dは、勾配を取得できる関数であってもよい。 The training is realized as follows, as an example. Here, a is the sensing data of the inertial sensor 100, for example, 6-dimensional data composed of acceleration and angular velocity, and W p R is 6-dimensional data indicating the correct position and orientation of the second predetermined point R in the first coordinate system. Let W be a weight matrix (6 × 6 dimensions), and optimize W by machine learning based on Eq. (1).
Figure 2021192178
Here, d (x, y) is a function for finding the distance between x and y, and is represented by, for example, a quadratic norm, but the function is not limited to this and may be an appropriate function. For example, d may be a function that can get the gradient.

機械学習により式(1)に基づいて、重みパラメータのWを求める。そして、処理部14は、訓練済のWのパラメータを用いて、第1座標系における第2所定点Rの位置及び姿勢を、慣性センサ100の感知した時系列データから取得する。すなわち、慣性センサ100の感知した実際のデータaについて、Waを算出することにより、第1座標系における第2所定点Rの位置及び姿勢を取得することができる。Wの最適化に用いる機械学習手法は、任意の手法であってもよい。 The weight parameter W is obtained by machine learning based on Eq. (1). Then, the processing unit 14 acquires the position and orientation of the second predetermined point R in the first coordinate system from the time series data sensed by the inertial sensor 100 by using the trained W parameter. That is, by calculating Wa for the actual data a sensed by the inertial sensor 100, the position and attitude of the second predetermined point R in the first coordinate system can be acquired. The machine learning method used for optimizing W may be any method.

また、慣性センサ100の感知したデータから第2所定点Rの位置の算出は、機械学習による最適化されたモデルであることには限定されない。適切に、慣性センサ100の感知データから第2所定点Rの第1座標系における位置、姿勢を取得できる線形モデル又は非線形モデルであってもよい。 Further, the calculation of the position of the second predetermined point R from the data sensed by the inertial sensor 100 is not limited to the model optimized by machine learning. It may be a linear model or a non-linear model that can appropriately acquire the position and orientation of the second predetermined point R in the first coordinate system from the sensing data of the inertial sensor 100.

続いて、処理部14は、慣性センサ100が感知した情報から、第3所定点Eの位置及び姿勢を取得する。この取得は、例えば、慣性センサ100の動きを検知し、上記と同様に、学習済モデルに入力することにより実現されてもよい。 Subsequently, the processing unit 14 acquires the position and attitude of the third predetermined point E from the information sensed by the inertial sensor 100. This acquisition may be realized, for example, by detecting the movement of the inertial sensor 100 and inputting it into the trained model in the same manner as described above.

この学習済モデルの訓練は、前述のデータベースに加えて、腕をいろいろと動かした場合の顔画像の特徴bの時系列データをデータベースとして保持することにより実行されてもよい。そして、腕の動きの時系列データから、第2所定点Eの第2座標系における位置、姿勢を取得する学習済モデルが最適化により取得される。

Figure 2021192178
ここで、bは、顔画像特徴のn次元データ、RpEは、第2座標系における第3所定点Eの正しい位置、姿勢を示す6次元データ、Vを重み行列(6 × n次元)とする。dは、上述と同様に、任意の適切な距離関数である。また、学習方法についても、上記と同様に、任意の手法としてもよい。 In addition to the above-mentioned database, the training of this trained model may be performed by holding the time-series data of the feature b of the facial image when the arm is moved in various ways as a database. Then, from the time-series data of the arm movement, a trained model for acquiring the position and posture of the second predetermined point E in the second coordinate system is acquired by optimization.
Figure 2021192178
Here, b is the n-dimensional data of the facial image feature, R p E is the 6-dimensional data indicating the correct position and posture of the third predetermined point E in the second coordinate system, and V is the weight matrix (6 × n-dimensional). And. d is any suitable distance function, as described above. Further, the learning method may be any method as described above.

一例として、bは、ユーザが腕を様々に動かした場合の目の位置と、視線の方向を特徴量として画像から取得する。腕の動きと目の位置、姿勢の動きとを時系列データとして取得することにより、ユーザがウェアラブルデバイス1を見る腕の動きをした場合における第3所定点Eの位置、姿勢を推定するモデルを最適化することができる。 As an example, b acquires the position of the eyes and the direction of the line of sight when the user moves his / her arm in various ways from the image as feature quantities. A model that estimates the position and posture of the third predetermined point E when the user moves the arm looking at the wearable device 1 by acquiring the movement of the arm, the position of the eyes, and the movement of the posture as time series data. Can be optimized.

ここで、本開示における演算に使用する変数(スカラー、ベクトル、行列等)の表現について説明する。

Figure 2021192178
Here, the representation of variables (scalars, vectors, matrices, etc.) used in the operations in the present disclosure will be described.
Figure 2021192178

式(3)は、X座標系における4 × 1同次座標ベクトルとして表現する。ここで、各座標系は、基準とする所定点の符号で表す。例えば、第1座標系は、第1所定点W、第2座標系は、第2所定点R、第3座標系は、第3所定点E、第4座標系は、第4所定点Vを用いて表す。例えば、式の中でWと記載された場合は、点としては、第1所定点Wを表し、座標系の指定としては、第1座標系を表す。 Equation (3) is expressed as a 4 × 1 homogeneous coordinate vector in the X coordinate system. Here, each coordinate system is represented by a code of a predetermined point as a reference. For example, the first coordinate system has the first predetermined point W, the second coordinate system has the second predetermined point R, the third coordinate system has the third predetermined point E, and the fourth coordinate system has the fourth predetermined point V. Expressed using. For example, when W is described in the equation, the point represents the first predetermined point W, and the coordinate system designation represents the first coordinate system.

例えば、VxVは、第2ディスプレイ2の形状と表示内容を、第4座標系において表現するものである。第2ディスプレイ2が平面である場合、zV = 0で固定される。これには限られず、第2ディスプレイ2は、任意の3次元形状であってもよい。 For example, V x V expresses the shape and display contents of the second display 2 in the fourth coordinate system. If the second display 2 is flat, it is fixed at z V = 0. The second display 2 is not limited to this, and may have an arbitrary three-dimensional shape.

例えば、RxRは、実ディスプレイの形状と表現内容を、第2座標系において表現するものである。こちらも、第1ディスプレイ160が平面である場合、zR = 0で固定される。これには限られず、第1ディスプレイ160は、任意の3次元形状であってもよい。

Figure 2021192178
For example, R x R expresses the shape and expression content of a real display in the second coordinate system. Again, if the first display 160 is flat, it is fixed at z R = 0. The first display 160 may have any three-dimensional shape without being limited to this.
Figure 2021192178

式(4)は、X座標系からY座標系への4 × 4の剛体変換行列を表す。ここで、Y XRは、X座標系に対するY座標系の3 × 3の姿勢行列を示す。Y Xtは、X座標系に対するY座標系の3 × 1の相対位置ベクトルを示す。これらY XR、 Y Xtの各要素の値は、例えば、前述の位置、姿勢のパラメータから一般的にコンピュータビジョン(Computer Vision)関係でよく知られている方法で算出されてもよい。 Equation (4) represents a 4 × 4 rigid transformation matrix from the X coordinate system to the Y coordinate system. Here, Y X R indicates a 3 × 3 attitude matrix of the Y coordinate system with respect to the X coordinate system. Y X t indicates the 3 × 1 relative position vector of the Y coordinate system with respect to the X coordinate system. The values of these Y X R and Y X t elements may be calculated, for example, from the above-mentioned position and posture parameters by a method generally well known in relation to computer vision.

W VMは、第1所定点Wと第2ディスプレイ2の位置関係を示す。この関係性は、あらかじめ設定されたものとしてもよく、すなわち、固定されたものとしてもよい。 W V M represents a first predetermined point W the second positional relationship between the display 2. This relationship may be preset, i.e. fixed.

そして、第2ディスプレイ2の表示を第1ディスプレイ160の表示へと変換する行列、すなわち、第4座標系から第2座標系への投影変換を示す4 × 4次元の行列を式(5)のように定義する。

Figure 2021192178
ここで、hxxは、変換行列の各成分を示す未知の要素である。空間的な整合性を確保するように投影するために、未知パラメータとしてこの変換行列の推定が必要となる。パラメータの推定を容易にするために、投影方法の制約を設定してもよい。投影方法の制約は、例えば、1点〜3点の透視投影、平行投影を行うことにより取得されてもよい。 Then, a matrix that transforms the display of the second display 2 into the display of the first display 160, that is, a 4 × 4 dimensional matrix that shows the projection transformation from the 4th coordinate system to the 2nd coordinate system is given in Eq. (5). It is defined as.
Figure 2021192178
Here, h xx is an unknown element indicating each component of the transformation matrix. In order to project so as to ensure spatial consistency, it is necessary to estimate this transformation matrix as an unknown parameter. Projection method constraints may be set to facilitate parameter estimation. The restrictions on the projection method may be acquired, for example, by performing perspective projection or parallel projection of 1 to 3 points.

これらの変換は、直交座標系(デカルト座標系)として示したが、これには限られず、円筒座標系(円柱座標系)、球座標系、又は、その他適切な座標系におけるモデルを生成してもよい。 These transformations have been shown as Cartesian coordinates (Cartesian), but are not limited to, and generate models in cylindrical (cylindrical), spherical, or other suitable coordinate systems. May be good.

図4のS104の実行には、上記に定義した各パラメータを用いる。具体的には、以下のように位置、姿勢の座標変換を実行することにより、第2ディスプレイ2に表示されている映像等の一部又は全部を第1ディスプレイ160に表示する。 Each parameter defined above is used to execute S104 in FIG. Specifically, by executing the coordinate transformation of the position and the posture as follows, a part or all of the image or the like displayed on the second display 2 is displayed on the first display 160.

このステップにおいて、まず、第4座標系における第2ディスプレイ2の表示を、第1座標系を介して、第3座標系へと変換し、視点から見た第2ディスプレイ2の点の位置を取得する。上記の行列を用いることにより、式(6)に基づいて、第4座標系の座標は、第1座標系へと変換される。

Figure 2021192178
In this step, first, the display of the second display 2 in the fourth coordinate system is converted to the third coordinate system via the first coordinate system, and the position of the point of the second display 2 as seen from the viewpoint is acquired. do. By using the above matrix, the coordinates of the 4th coordinate system are converted into the 1st coordinate system based on the equation (6).
Figure 2021192178

一方で、第1座標系における第4所定点Vのzの値、すなわち、第1所定点Wから第2ディスプレイ2までの距離と、第1座標系に変換された第4所定点Vとの関係は、式(7)により表される。

Figure 2021192178
ここで、Kは、第3座標系から視点への4 × 4次元の投影変換行列である。 On the other hand, the value of z of the fourth predetermined point V in the first coordinate system, that is, the distance from the first predetermined point W to the second display 2, and the fourth predetermined point V converted into the first coordinate system. The relationship is expressed by Eq. (7).
Figure 2021192178
Here, K is a 4 × 4 dimensional projection transformation matrix from the third coordinate system to the viewpoint.

式(6)を式(7)に代入すると、式(8)が得られる。

Figure 2021192178
ここで、W Vmzは、W VMの3行目の成分(z軸に対応する成分)を示す1 × 4次元のベクトルである。 Substituting Eq. (6) into Eq. (7) gives Eq. (8).
Figure 2021192178
Here, W V m z is a 1 × 4 dimensional vector showing the component (component corresponding to the z axis) in the third row of W V M.

そして、視点から見た第1ディスプレイ160は、式(9)、式(10)から、式(11)と表すことができる。

Figure 2021192178
Figure 2021192178
Figure 2021192178
ここで、R Vhzは、R VHの3行目の成分(z軸に対応する成分)を示す1 × 4次元のベクトルである。 The first display 160 viewed from the viewpoint can be expressed as equation (11) from equations (9) and (10).
Figure 2021192178
Figure 2021192178
Figure 2021192178
Here, R V h z is a 1 × 4 dimensional vector showing the component (component corresponding to the z axis) in the third row of R V H.

式(8)に示す点と、式(11)に示す点が位置する、すなわち、ExV = ExRである条件から、投影変換行列R VHを取得する。

Figure 2021192178
この解を与える数式の1つとして、式(13)の関係式が導きだされる。
Figure 2021192178
The projection transformation matrix R V H is obtained from the condition that the points shown in Eq. (8) and the points shown in Eq. (11) are located, that is, E x V = E x R.
Figure 2021192178
The relational expression of Eq. (13) is derived as one of the mathematical expressions that gives this solution.
Figure 2021192178

この式(13)の関係が、任意のVxVに対して成り立つように、未知パラメータR VHを推定する。この推定の手法は、限定されるものではなく、一般的な手法で実行される。例えば、代数的な手法(近似計算による手法を含む)、反復計算による数値解析的な手法、機械学習による手法を用いて実行されてもよいし、その他種々の最適化法に基づいて実行されてもよい。 The relationship of equation (13), as holds for any V x V, to estimate the unknown parameters R V H. This estimation method is not limited, and is performed by a general method. For example, it may be executed using an algebraic method (including a method by approximate calculation), a numerical analysis method by iterative calculation, a method by machine learning, or it may be executed based on various other optimization methods. May be good.

この行列R VHは、工場出荷時に、統計的に取得されたデータに基づいてあらかじめ複数の状態において演算され、記憶部12に格納されていてもよいし、ユーザに固有のキャリブレーションを行った後に演算され、記憶部12に格納されてもよい。また、その他適切なタイミングにおいて演算されたものであってもよい。例えば、慣性センサ100が動きを感知するたびに、処理部14は、パラメータを更新してもよい。 The matrix R V H is factory, computed in advance a plurality of states based on the statistically acquired data may be stored in the storage unit 12, subjected to specific calibration to the user It may be calculated later and stored in the storage unit 12. Further, it may be calculated at an appropriate timing. For example, the processing unit 14 may update the parameter each time the inertia sensor 100 senses motion.

処理部14は、上記のように取得された行列R VHを用いて第4座標系における第2ディスプレイ2の表示内容を式(14)の変換をすることにより、第1ディスプレイ160に表示する第2ディスプレイ2の映像等の情報を取得する。

Figure 2021192178
Processor 14, by the conversion of the second display content of the display 2 in the fourth coordinate system using the obtained matrix R V H as described above formula (14), is displayed on the first display 160 Acquires information such as images on the second display 2.
Figure 2021192178

次に、処理部14は、式(14)の座標変換に基づいて、第1ディスプレイ160に表示する内容を算出し、情報を表示する(S106)。この処理を実行することにより、リアルタイムに更新される第2ディスプレイ2に表示されている映像等の一部又は全部の領域を第1ディスプレイ160に出力することができる。 Next, the processing unit 14 calculates the content to be displayed on the first display 160 based on the coordinate transformation of the equation (14), and displays the information (S106). By executing this process, a part or all of the image or the like displayed on the second display 2 updated in real time can be output to the first display 160.

例えば、ユーザが腕の位置を動かした場合には、S100において、慣性センサ100が腕の動きを感知し、それに合わせて第1ディスプレイ160に出力されている第2ディスプレイ2の映像等の領域、姿勢の少なくとも一方を更新して出力する。この出力のために、S104において処理部14は、パラメータの更新演算を実行してもよい。 For example, when the user moves the position of the arm, in S100, the inertial sensor 100 detects the movement of the arm, and the area such as the image of the second display 2 output to the first display 160 in accordance with the movement of the arm, Update and output at least one of the postures. For this output, the processing unit 14 may execute the parameter update operation in S104.

図7は、ウェアラブルデバイス1の位置が各ディスプレイと平行に移動した場合を示す図である。上図の状態から、例えば、ユーザがウェアラブルデバイス1を向かって右側に移動させたとする。このような場合、下図に示すように、処理部14は、上記のパラメータを更新することにより再計算し、上図とは異なる第2ディスプレイ2の領域についての映像等を第1ディスプレイ160に表示させる。 FIG. 7 is a diagram showing a case where the position of the wearable device 1 is moved in parallel with each display. From the state shown in the above figure, for example, it is assumed that the user moves the wearable device 1 to the right side. In such a case, as shown in the figure below, the processing unit 14 recalculates by updating the above parameters, and displays an image or the like about the area of the second display 2 different from the above figure on the first display 160. Let me.

上記の説明においては、静止した状態同士について示しているが、もちろん、移動中にも慣性センサ100の動きに基づいて、処理部14は、リアルタイムにパラメータを更新し、第1ディスプレイ160に表示する内容(第2ディスプレイ2の領域)をリアルタイムに変更してもよい。これは、左右方向だけではなく、上下方向に対しても同様の処理をすることが可能である。 In the above description, the stationary states are shown, but of course, the processing unit 14 updates the parameters in real time based on the movement of the inertial sensor 100 even while moving, and displays them on the first display 160. The content (area of the second display 2) may be changed in real time. It is possible to perform the same processing not only in the left-right direction but also in the up-down direction.

図8は、第1ディスプレイ160に出力される第2ディスプレイ2の一部の領域の一例を示す図である。例えば、第2ディスプレイ2には、ペット型のロボットの映像が表示されているとする。この場合、図7の上図のように第1ディスプレイ160を位置させると、上図のように、例えば、第2ディスプレイ2の中央あたりの映像等が第1ディスプレイ160に出力される。 FIG. 8 is a diagram showing an example of a part of the area of the second display 2 output to the first display 160. For example, it is assumed that an image of a pet-type robot is displayed on the second display 2. In this case, when the first display 160 is positioned as shown in the upper figure of FIG. 7, for example, an image around the center of the second display 2 is output to the first display 160 as shown in the upper figure.

そして、ユーザが第1ディスプレイ160を図7の下図のように向かって右側に移動させると、図8の下図に示すように、第1ディスプレイ160に表示される第2ディスプレイ2の領域がその動きに伴って変化する。そして、第1ディスプレイ160には、例えば、第2ディスプレイ2の上下方向ほぼ中央の右寄りの映像等が出力される。 Then, when the user moves the first display 160 to the right side as shown in the lower figure of FIG. 7, the area of the second display 2 displayed on the first display 160 moves as shown in the lower figure of FIG. It changes with. Then, for example, an image on the right side of the center of the second display 2 in the vertical direction is output to the first display 160.

このように、例えば、第2ディスプレイ2と比較して狭い表示領域を有する第1ディスプレイ160を用いて、より広い領域を有する仮想ディスプレイの情報を出力することが可能となる。ユーザは、見たいコンテンツが存在する方向へウェアラブルデバイス1(第1ディスプレイ160)を移動させることにより、出力される領域を変更して、その移動方向に対応した映像等を見ることができる。 In this way, for example, the information of the virtual display having a wider area can be output by using the first display 160 having a narrower display area as compared with the second display 2. By moving the wearable device 1 (first display 160) in the direction in which the content to be viewed exists, the user can change the output area and view the video or the like corresponding to the moving direction.

また、一例として、第1ディスプレイ160の表示領域が第2ディスプレイ2の外側を含む領域である場合、パディングした表示、例えば、空白表示を当該外側の領域に行ってもよい。別の例として、第2ディスプレイ2の端から外側が含まれる領域まで第1ディスプレイ160が移動した場合には、第2ディスプレイ2の端の領域でとどまるように、第1ディスプレイ160に表示をしてもよい。 Further, as an example, when the display area of the first display 160 is an area including the outside of the second display 2, padded display, for example, a blank display may be performed on the outer area. As another example, if the first display 160 moves from the edge of the second display 2 to an area that includes the outside, it will display on the first display 160 so that it stays in the area at the edge of the second display 2. You may.

図9は、ウェアラブルデバイス1の位置が各ディスプレイと垂直に移動した場合を示す図である。上図の状態から、例えば、ユーザがウェアラブルデバイス1を自分に近づける方向に移動させたとする。このような場合、下図に示すように、処理部14は、上記のパラメータを更新することにより再計算し、上図とは画角の異なる第2ディスプレイ2の領域についての映像等を第1ディスプレイ160に表示させる。 FIG. 9 is a diagram showing a case where the position of the wearable device 1 is moved perpendicular to each display. From the state shown in the above figure, for example, it is assumed that the user moves the wearable device 1 in a direction closer to himself / herself. In such a case, as shown in the figure below, the processing unit 14 recalculates by updating the above parameters, and the first display displays an image or the like about the area of the second display 2 having a different angle of view from the above figure. Display at 160.

上記の説明においては、静止した状態同士について示しているが、上記と同様に、移動中にも慣性センサ100の動きに基づいた画像を処理部14が生成して、リアルタムに第1ディスプレイ160の出力を更新してもよい。これは、近づく方向だけではなく、遠ざかる方向に対しても同様の処理をすることが可能である。 In the above description, the stationary states are shown, but similarly to the above, the processing unit 14 generates an image based on the movement of the inertial sensor 100 even while moving, and the first display 160 is displayed in real time. You may update the output. It is possible to perform the same processing not only in the approaching direction but also in the moving direction.

図10は、第1ディスプレイ160に出力される第2ディスプレイ2の一部の領域の一例を示す図である。図9の上図のように第1ディスプレイ160を位置させると、図8の上図と同様に、例えば、第1ディスプレイ160には、第2ディスプレイ2の中央付近の映像等が出力される。 FIG. 10 is a diagram showing an example of a part of the area of the second display 2 output to the first display 160. When the first display 160 is positioned as shown in the upper figure of FIG. 9, for example, an image near the center of the second display 2 is output to the first display 160 as in the upper figure of FIG.

そして、ユーザが第2ディスプレイ2を図9の下図のように自らに向かって近づくように移動させると、図10の下図に示すように、第1ディスプレイ160には、例えば、第2ディスプレイ2の位置は変わらないが、より広い範囲を出力するように映像等が出力される。もっとも、この図10においては、第1ディスプレイ160の大きさが変わるように描かれているが、第1ディスプレイ160自体の大きさが固定である場合には、上図と同じ大きさの領域に、縮小されたより広い領域が出力される。 Then, when the user moves the second display 2 so as to approach itself as shown in the lower figure of FIG. 9, as shown in the lower figure of FIG. 10, the first display 160 is, for example, the second display 2. The position does not change, but the video etc. is output so as to output a wider range. However, in FIG. 10, the size of the first display 160 is drawn so as to change, but when the size of the first display 160 itself is fixed, the area is the same as the above figure. , A reduced and wider area is output.

また、一例として、第1ディスプレイ160とユーザの距離が所定距離よりも近い場合には、第1ディスプレイ160に、第2ディスプレイ2の全部の領域を表示するようにしてもよい。この場合、周りをパディングして第2ディスプレイ2を縮小率に合わせて表示させてもよいし、第2ディスプレイ2の横幅又は縦幅が第1ディスプレイ160に収まったタイミングから固定した表示としてもよい。 Further, as an example, when the distance between the first display 160 and the user is closer than a predetermined distance, the first display 160 may display the entire area of the second display 2. In this case, the surroundings may be padded to display the second display 2 according to the reduction ratio, or the display may be fixed from the timing when the width or height of the second display 2 fits in the first display 160. ..

上記の2パターンは、混合することも可能である。すなわち、ウェアラブルデバイス1は、ディスプレイに対して平行な成分と、垂直な成分とを有して移動してもよい。上記のように処理部14が処理をして第1ディスプレイ160に第2ディスプレイ2の一部又は全部の領域を描画することにより、ユーザ(の第1所定位置W)に対して、第2ディスプレイ2の表示領域の大きさが変わらないように表示をすることが可能である。 The above two patterns can be mixed. That is, the wearable device 1 may move with a component parallel to the display and a component perpendicular to the display. As described above, the processing unit 14 processes and draws a part or all of the area of the second display 2 on the first display 160, so that the second display is directed to the user (the first predetermined position W). It is possible to display so that the size of the display area of 2 does not change.

上記の例では、第2ディスプレイ2の大きさが変わらないとしたが、これには限られない。例えば、ユーザが最初に第1ディスプレイ160を介して第2ディスプレイ2の表示を見始めた点を基準として、上下左右、及び、垂直方向の動きに対して第1ディスプレイ160に出力される移動量を強調、抑制した表示をしてもよい。例えば、ユーザがウェアラブルデバイス1を動かした距離以上に、上下左右、垂直方向に映像を動かしてもよい。逆に、ユーザがウェアラブルデバイス1を動かしたよりも少なく、上下左右、垂直方向に映像を動かしてもよい。これは、混合することも可能である。例えば、左右方向に強調し、上下方向に抑制、又は、平行方向には強調し、垂直方向には抑制等、種々の混合方法を用いてもよい。 In the above example, the size of the second display 2 does not change, but it is not limited to this. For example, the amount of movement output to the first display 160 with respect to vertical, horizontal, and vertical movements based on the point at which the user first begins to see the display of the second display 2 through the first display 160. May be emphasized or suppressed. For example, the image may be moved vertically, horizontally, and vertically beyond the distance the user has moved the wearable device 1. On the contrary, the image may be moved vertically, horizontally, and vertically, less than the user moves the wearable device 1. It can also be mixed. For example, various mixing methods may be used, such as emphasizing in the left-right direction and suppressing in the vertical direction, or emphasizing in the parallel direction and suppressing in the vertical direction.

以上のように、本実施形態によれば、ウェアラブルデバイス1は、仮想的に定義されたディスプレイの一部又は全部の領域を実際のディスプレイを介して閲覧することが可能となる。さらに、実際のディスプレイを自由に動かすことにより、仮想的なディスプレイの映し出される領域等を変更することが可能となる。例えば、GPS(Global Positioning System)に基づいた地図を仮想ディスプレイに表示しておき、実ディスプレイにおいて、この地図の任意の位置を閲覧したり、この表示を拡大、縮小したりした映像等を、ユーザは見ることが可能となる。 As described above, according to the present embodiment, the wearable device 1 can view a part or the whole area of the virtually defined display through the actual display. Furthermore, by freely moving the actual display, it is possible to change the area on which the virtual display is displayed. For example, a map based on GPS (Global Positioning System) is displayed on a virtual display, and a user can view an arbitrary position on this map on a real display, or enlarge or reduce this display. Can be seen.

このように、ユーザの視点としては、ウェアラブルデバイスの実ディスプレイと仮想ディスプレイの位置関係によって、実ディスプレイの表示内容を変更する装置が実現できる。このウェアラブルデバイスによれば、仮想ディスプレイは、例えば、ユーザの胸といった、ユーザに依存した位置に対して固定位置に配置されているため、ユーザは、常に自分の前方に存在している仮想ディスプレイを窓から覗いて見るような体験をすることが可能となる。本実施形態のウェアラブルデバイスによれば、例えば、スマートフォンよりも小さい表示領域ではあるが、擬似的にスマートフォンと同程度以上の広い領域を有するディスプレイを実現することができる。すなわち、スマートフォンのディスプレイと同程度の情報量を有するとともに、コンテンツのサイズも同程度とすることが可能となる。 As described above, from the user's point of view, it is possible to realize a device that changes the display content of the real display depending on the positional relationship between the real display and the virtual display of the wearable device. According to this wearable device, the virtual display is placed in a fixed position with respect to a user-dependent position, for example, the user's chest, so that the user always has a virtual display that is in front of him. It is possible to have an experience like looking through a window. According to the wearable device of the present embodiment, for example, it is possible to realize a display having a display area smaller than that of a smartphone but having a wide area that is substantially the same as that of a smartphone. That is, it has the same amount of information as the display of a smartphone, and the size of the content can be the same.

ウェアラブルデバイスが腕時計型である場合には、さらに、腕につけている、及び、人間の骨格から位置、姿勢を限定するという拘束条件を設定することが可能である。この拘束条件に基づき、位置、姿勢等の探索空間を限定することが可能であり、その計算を簡略化して、よりインタラクティブな表示を行うことが可能となる。 When the wearable device is a wristwatch type, it is possible to further set a constraint condition that the wearable device is attached to the arm and the position and posture are limited from the human skeleton. Based on this constraint condition, it is possible to limit the search space such as position and posture, simplify the calculation, and perform more interactive display.

また、上記の図7、図8の例においては、移動方向と同じ方向と動くものとしたが、場合により逆方向に動くように表示内容を変更してもよい。例えば、第1ディスプレイ160と第2ディスプレイ2の第1所定点Wに対する位置が逆転することがあってもよい。この場合、第1ディスプレイ160は、第2ディスプレイ2よりもユーザから奥にあると、ユーザが感知することができるように、第1ディスプレイ160が右に動くと、第2ディスプレイ2の左側の領域に移動するように表示をさせてもよい。このように出力することにより、ユーザは、第2ディスプレイ2に焦点をおいていることをより強く感知することが可能となる。このように、運動視差に基づいて、直感的な操作を実現できるようにしてもよい。上下方向も同様に、カメラのピッチ角度を変更する直感的な操作に合わせて、第1ディスプレイ160と第2ディスプレイ2の移動の方向を逆方向としてもよい。 Further, in the above examples of FIGS. 7 and 8, the display content is assumed to move in the same direction as the moving direction, but the display content may be changed so as to move in the opposite direction depending on the case. For example, the positions of the first display 160 and the second display 2 with respect to the first predetermined point W may be reversed. In this case, when the first display 160 moves to the right, the area on the left side of the second display 2 so that the user can perceive that the first display 160 is behind the second display 2. It may be displayed so as to move to. By outputting in this way, the user can more strongly perceive that the focus is on the second display 2. In this way, intuitive operation may be realized based on the motion parallax. Similarly, in the vertical direction, the moving directions of the first display 160 and the second display 2 may be reversed according to the intuitive operation of changing the pitch angle of the camera.

なお、第2ディスプレイ2に初期に表示されている映像等は、任意である。例えば、ウェブブラウザを表示してもよいし、地図を表示してもよいし、又は、特定のアプリケーションを表示してもよい。これに対してユーザが入力インタフェースを介して入力をすることにより、任意のアプリケーションを実行させてもよい。入力インタフェースの例は、後述の実施形態において説明する通りである。上述したように、第2ディスプレイ2は、スマートフォン等と同等以上の表示領域を有することができるため、当該仮想ディスプレイに描写する映像等は、任意のものであり、適切に第1ディスプレイ160に第2ディスプレイ2の領域の一部又は全部が表示できる態様であれば、本開示の技術内容に含まれる点に留意されたい。 The image or the like initially displayed on the second display 2 is arbitrary. For example, a web browser may be displayed, a map may be displayed, or a specific application may be displayed. On the other hand, the user may execute an arbitrary application by inputting through the input interface. An example of the input interface is as described in the embodiments described below. As described above, since the second display 2 can have a display area equal to or larger than that of a smartphone or the like, the image or the like to be depicted on the virtual display is arbitrary, and the first display 160 can be appropriately displayed. 2 It should be noted that if a part or all of the area of the display 2 can be displayed, it is included in the technical contents of the present disclosure.

(第2実施形態)
上記では、任意の状態から第1ディスプレイ160への表示を開始するものとしたが、これには限られない。例えば、ユーザによる所定ジェスチャを慣性センサ100により感知して、この所定ジェスチャにより、各ディスプレイへの表示を開始してもよい。
(Second embodiment)
In the above, it is assumed that the display on the first display 160 is started from an arbitrary state, but the display is not limited to this. For example, a predetermined gesture by the user may be sensed by the inertial sensor 100, and the display on each display may be started by this predetermined gesture.

例えば、ユーザは、腕を振り上げてその後に腕時計を見るような位置にウェアラブルデバイス1を移動させることにより、描画のスタートとしてもよい。この所定ジェスチャは、慣性センサ100により感知された情報に基づいて判断される。例えば、慣性センサ100は、重力加速度に対して、急激な上方向への加速度の印加から、急激な下方向への加速度の変化を感知することにより、トリガされて処理を開始してもよい。そして、重力加速度に対して静止した点において、第2所定点Rを定義し、上記の流れにしたがって、第1所定点W等を設定して、その後の処理を実行してもよい。 For example, the user may start drawing by moving the wearable device 1 to a position where the wearable device 1 is moved to a position where the user raises his / her arm and then looks at the wristwatch. This predetermined gesture is determined based on the information sensed by the inertial sensor 100. For example, the inertial sensor 100 may be triggered and start processing by sensing a sudden change in the downward acceleration from the application of the sudden upward acceleration to the gravitational acceleration. Then, the second predetermined point R may be defined at a point stationary with respect to the gravitational acceleration, the first predetermined point W or the like may be set according to the above flow, and the subsequent processing may be executed.

このように、所定のジェスチャを第1ディスプレイ160への出力の開始のフラグとしてもよい。また、ジェスチャは、開始にとどまらず、アプリケーションの終了等に対応していてもよい。さらに、ジェスチャにより、任意のアプリケーションの起動、また、アプリケーションにおける任意の処理を処理部14が実行してもよい。このように、処理部14は、慣性センサ100が感知した情報に基づいてジェスチャ情報を取得し、このジェスチャ情報にしたがった任意の処理が実行できる構成であってもよい。 In this way, a predetermined gesture may be used as a flag for starting output to the first display 160. In addition, the gesture may correspond not only to the start but also to the end of the application. Further, the processing unit 14 may execute an arbitrary application or any processing in the application by the gesture. As described above, the processing unit 14 may be configured to acquire gesture information based on the information sensed by the inertial sensor 100 and to execute arbitrary processing according to the gesture information.

所定ジェスチャは、腕の振り上げに限定されるものではない。例えば、ユーザがウェアラブルデバイス1を装着している腕を振ることを開始のジェスチャとしてもよいし、これには限られず、人間が自然に実行できるジェスチャであればどのようなものであってもよい。さらには、ユーザが開始を含めた各処理のジェスチャを任意に設定できる構成としてもよい。もちろん、この場合も、ジャイロセンサ等を用いて、所定範囲の姿勢にウェアラブルデバイス1が静止していることを感知して処理を開始させてもよい。第1ディスプレイ160への表示も特別なものではなく、このジェスチャの感知による処理の一種として実行することが可能である。 The predetermined gesture is not limited to raising the arm. For example, the gesture may start with the user wearing the wearable device 1 and swinging the arm, and the gesture is not limited to this, and any gesture that can be naturally performed by a human can be used. .. Further, the user may arbitrarily set the gesture of each process including the start. Of course, in this case as well, a gyro sensor or the like may be used to detect that the wearable device 1 is stationary in a posture within a predetermined range and start the process. The display on the first display 160 is not special, and it can be executed as a kind of processing by sensing this gesture.

例えば、静止した状態を開始姿勢として、前述の第1実施形態で説明したように、画面の上下左右、及び、奥行き方向の処理を行ってもよい。この上下左右方向の移動及び奥行き方向の移動も、一種のジェスチャとしてみなすことができる。すなわち、任意のジェスチャにより、当該ジェスチャに対応する任意の処理を処理部14が実行してもよい。 For example, as described in the above-described first embodiment, processing may be performed in the vertical and horizontal directions of the screen and in the depth direction, with the stationary state as the starting posture. This movement in the vertical and horizontal directions and the movement in the depth direction can also be regarded as a kind of gesture. That is, the processing unit 14 may execute an arbitrary process corresponding to the gesture by an arbitrary gesture.

(第3実施形態)
前述の第1実施形態、第2実施形態では、ウェアラブルデバイスは、入力として、慣性センサ、出力として実ディスプレイを備える構成であったが、これらには限られず、さらに多くの入出力インタフェースを備えていてもよい。
(Third Embodiment)
In the first embodiment and the second embodiment described above, the wearable device is configured to include an inertial sensor as an input and a real display as an output, but the wearable device is not limited to these and has many more input / output interfaces. You may.

図11は、第3実施形態に係るウェアラブルデバイス1の構成の一例を模式的に示すブロック図である。ウェアラブルデバイス1は、前述の実施形態の構成の他に、さらに、通信部18を備える。 FIG. 11 is a block diagram schematically showing an example of the configuration of the wearable device 1 according to the third embodiment. The wearable device 1 further includes a communication unit 18 in addition to the configuration of the above-described embodiment.

入力部10は、慣性センサ100の他に、一例として、カメラ101、測距センサ102、タッチセンサ103、物理ボタン104、マイク105、心拍センサ106、筋電センサ107、体温センサ108、発汗センサ109、脳波センサ110、位置センサ111のうち、任意のものを、任意の組み合わせで備える。入力部10は、前述の実施形態で示したように、種々の処理を処理部14へと要求することが可能である。例えば、処理部14は、入力部10から取得した感知情報に基づいて、第1ディスプレイ160における第2ディスプレイ2の表示領域の位置、姿勢を変更したり、その他種々の処理を実行させたりすることができる。 In addition to the inertial sensor 100, the input unit 10 includes a camera 101, a distance measuring sensor 102, a touch sensor 103, a physical button 104, a microphone 105, a heartbeat sensor 106, a myoelectric sensor 107, a body temperature sensor 108, and a sweating sensor 109, as an example. , Brain wave sensor 110, position sensor 111, any combination is provided. As shown in the above-described embodiment, the input unit 10 can request the processing unit 14 to perform various processes. For example, the processing unit 14 may change the position and orientation of the display area of the second display 2 on the first display 160 based on the sensing information acquired from the input unit 10, and execute various other processes. Can be done.

処理部14は、処理の1つとして、各種センサからの情報に基づき、ユーザの意思によらずに自動的に各種処理を実行することができる。また、処理部14は、処理の1つとして、各種センサから取得したユーザの意思により入力された情報に基づき、ユーザが求める各種処理を実行することができる。すなわち、処理部14は、入力部10を介して取得した情報に基づいて、ユーザからの明示的な命令、又は、明示的ではない状態による種々の処理を実行することができる。 As one of the processes, the processing unit 14 can automatically execute various processes based on the information from various sensors without the intention of the user. Further, as one of the processes, the processing unit 14 can execute various processes requested by the user based on the information input by the user's intention acquired from various sensors. That is, the processing unit 14 can execute an explicit command from the user or various processes in a non-explicit state based on the information acquired via the input unit 10.

出力部16は、第1ディスプレイ160の他に、スピーカ161、アクチュエータ162、発光素子163のうち、任意のものを、任意の組み合わせで備える。もちろん、入力部10の各構成要素との組み合わせも任意である。 In addition to the first display 160, the output unit 16 includes a speaker 161, an actuator 162, and a light emitting element 163 in any combination. Of course, the combination with each component of the input unit 10 is also arbitrary.

さらに、図11のブロック図は、一例として示したものであり、入力部10及び出力部16の内部の構成要素は、全てが必須のものではなく、任意に搭載していてもよい。 Further, the block diagram of FIG. 11 is shown as an example, and the internal components of the input unit 10 and the output unit 16 are not all indispensable and may be arbitrarily mounted.

カメラ101は、周辺の環境を映像情報として取得するセンサである。カメラ101は、単数ではなく、複数備えられていてもよい。カメラ101は、例えば、ウェアラブルデバイス1のユーザ側(第1ディスプレイ160側)に備えられるインカメラであってもよいし、逆側に備えられるアウトカメラであってもよいし、これらの双方を備えていてもよい。また、これには限られず、複数のカメラ101がウェアラブルデバイス1の任意の方向の環境を取得するために備えられていてもよい。 The camera 101 is a sensor that acquires the surrounding environment as video information. A plurality of cameras 101 may be provided instead of a single camera 101. The camera 101 may be, for example, an in-camera provided on the user side (first display 160 side) of the wearable device 1, an out-camera provided on the opposite side, or both of them. You may be. Further, the present invention is not limited to this, and a plurality of cameras 101 may be provided for acquiring the environment of the wearable device 1 in any direction.

カメラ101が複数である場合には、ユーザからの見た目が悪くならないように、微細穴構造のピンホールカメラ等の目立たない構成としてもよい。また、第1ディスプレイ160側にインカメラが備えられる場合には、ディスプレイの下側、すなわち、ディスプレイのユーザ側ではない面に、ディスプレイ発光素子の下側に備えられてもよい。この場合、カメラ101は、裏面受光素子又は表面受光素子の構成であってもよい。 When there are a plurality of cameras 101, a pinhole camera having a fine hole structure or the like may be inconspicuous so as not to deteriorate the appearance from the user. When the in-camera is provided on the first display 160 side, it may be provided on the lower side of the display, that is, on a surface other than the user side of the display, on the lower side of the display light emitting element. In this case, the camera 101 may be configured as a back surface light receiving element or a front surface light receiving element.

また、カメラ101は、ウェアラブルデバイス1に備えられるものであるが、通信部18を介した外部のカメラと通信を行い、当該カメラの情報をも利用するものであってもよい。 Further, although the camera 101 is provided in the wearable device 1, it may be one that communicates with an external camera via the communication unit 18 and also uses the information of the camera.

例えば、カメラ101としてインナーカメラを備える場合、前述の第1実施形態においては、慣性センサ100から取得した情報により判断していた第3所定点Eの位置及び姿勢を、画像又は映像情報として取得することができる。このようなカメラ101を用いることにより、ユーザの視点、視線方向等、より詳細なデータを取得することが可能である。例えば、式(2)に表される評価関数を用いた第3所定点Eの位置、姿勢を求める際に、顔画像の特徴点のデータを用いることができる。種々の状況におけるカメラ101により取得された画像の特徴点を訓練データとして機械学習を実行して学習済モデルを生成してもよい。もちろん、第1所定点Wの位置、姿勢に関する情報をより正確に取得することも可能である。ウェアラブルデバイス1は、これらの情報を、慣性センサ100のみ、カメラ101のみ、ではなく、双方のデータを総合して利用することにより取得してもよい。 For example, when the camera 101 is provided with an inner camera, in the above-mentioned first embodiment, the position and posture of the third predetermined point E determined by the information acquired from the inertial sensor 100 are acquired as image or video information. be able to. By using such a camera 101, it is possible to acquire more detailed data such as a user's viewpoint and a line-of-sight direction. For example, when obtaining the position and posture of the third predetermined point E using the evaluation function represented by the equation (2), the data of the feature points of the facial image can be used. Machine learning may be performed using the feature points of the image acquired by the camera 101 in various situations as training data to generate a trained model. Of course, it is also possible to more accurately acquire information on the position and posture of the first predetermined point W. The wearable device 1 may acquire this information not only by the inertial sensor 100 or the camera 101 but by using the data of both of them in a comprehensive manner.

また、図7、図9のような動きに対しても、カメラ101で画像情報を取得し、ユーザの目を特徴点の情報等から取得することにより、より精度のよい第1ディスプレイ160への出力のための変換を実現することが可能である。 Further, even for the movements shown in FIGS. 7 and 9, by acquiring the image information with the camera 101 and acquiring the user's eyes from the information of the feature points, etc., the first display 160 with higher accuracy can be obtained. It is possible to realize the conversion for the output.

さらに、第2実施形態で説明したジェスチャに関しても、慣性センサ100の感知情報ではなく、カメラ101が撮影した映像等の情報に基づいて取得することが可能となる。例えば、カメラ101を介して種々のジェスチャを撮影して、これを訓練データとして機械学習による学習済モデルを生成することができる。そして、処理部14は、この学習済モデルに映像等の情報を入力することにより、任意のジェスチャを読み出すことが可能となる。この場合、ウェアラブルデバイス1自体を動かすことなく、もう一方の腕、又は、顔の表情等、画像、映像として取得できる状態でジェスチャ入力をすることが可能となる。例えば、顔の方向を変えたり、又は、視線の方向を変えたりすることにより、第1ディスプレイ160へ出力する第2ディスプレイ2の領域、姿勢を変更できる構成としてもよい。 Further, the gesture described in the second embodiment can also be acquired based on the information such as the image taken by the camera 101, not the sensing information of the inertial sensor 100. For example, various gestures can be photographed through the camera 101, and this can be used as training data to generate a trained model by machine learning. Then, the processing unit 14 can read out an arbitrary gesture by inputting information such as a video into the trained model. In this case, it is possible to input gestures in a state where the wearable device 1 itself can be acquired as an image or video such as the facial expression of the other arm or the face without moving the wearable device 1. For example, the area and posture of the second display 2 output to the first display 160 may be changed by changing the direction of the face or the direction of the line of sight.

別の例として、カメラ101がインカメラとして備えられ、このインカメラにより人間の顔が検出されると、第1ディスプレイ160への出力を開始してもよい。さらには、カメラ101から取得した画像に基づいて顔認証を実行し、顔認証の結果に基づいて、第1ディスプレイ160への出力を行ってもよい。このようにインカメラを備えることにより、セキュリティを向上させることが可能となる。 As another example, the camera 101 is provided as an in-camera, and when the in-camera detects a human face, the output to the first display 160 may be started. Further, the face authentication may be executed based on the image acquired from the camera 101, and the output to the first display 160 may be performed based on the result of the face authentication. By providing the in-camera in this way, it is possible to improve security.

このように、カメラ101としてインカメラを備えることにより、前述の第1実施形態の処理及び第2実施形態のジェスチャ処理をより明確に、精度よく実現することが可能となる。 As described above, by providing the in-camera as the camera 101, it is possible to realize the processing of the first embodiment and the gesture processing of the second embodiment more clearly and accurately.

処理部14は、ジェスチャの入力を認識した場合には、当該ジェスチャの情報を第1ディスプレイ160に表示してもよい。この表示は、第2ディスプレイ2の表示と重畳して表示されるものであってもよいし、第1ディスプレイ160内の所定のウィンドウ内に表示されるものであってもよい。また、後述する出力部のいずれかにより、ジェスチャの入力が受け付けられたことをユーザに通知してもよい。このように、ユーザにジェスチャが入力されたことを明確に伝えてもよい。この結果、ユーザは、自らが入力したジェスチャが、適切にウェアラブルデバイス1に入力されているかを確認することができる。 When the processing unit 14 recognizes the input of the gesture, the information of the gesture may be displayed on the first display 160. This display may be displayed superimposed on the display of the second display 2, or may be displayed in a predetermined window in the first display 160. Further, the user may be notified that the gesture input has been accepted by any of the output units described later. In this way, the user may be clearly informed that the gesture has been entered. As a result, the user can confirm that the gesture he / she has input is properly input to the wearable device 1.

測距センサ102は、例えば、音波、赤外線等を用いたセンサであり、対象となる物体までの距離を測定するセンサである。この測距センサ102を例えば上記のインカメラの代わりに備えてもよい。例えば、慣性センサ100、カメラ101により第1所定点W、第3所定点Eの位置を取得する場合に、測距センサ102により、その第1所定点W又は第3所定点Eまでの距離をより正確に取得してもよい。 The distance measuring sensor 102 is, for example, a sensor using sound waves, infrared rays, or the like, and is a sensor that measures the distance to a target object. The ranging sensor 102 may be provided, for example, in place of the above-mentioned in-camera. For example, when the positions of the first predetermined point W and the third predetermined point E are acquired by the inertia sensor 100 and the camera 101, the distance to the first predetermined point W or the third predetermined point E is determined by the distance measuring sensor 102. It may be acquired more accurately.

タッチセンサ103は、人間が触れることにより反応するセンサである。例えば、第1ディスプレイ160の表示面の上又は下にタッチセンサ103を備えるタッチパネルの構成としてもよいし、デバイスの側面に備えられ、指紋センサ、ボタン等として用いられてもよい。このタッチセンサ103を用いることにより、入力インタフェースのユーザビリティを向上することができる。 The touch sensor 103 is a sensor that reacts when touched by a human. For example, it may be configured as a touch panel having a touch sensor 103 above or below the display surface of the first display 160, or may be provided on the side surface of the device and used as a fingerprint sensor, a button, or the like. By using this touch sensor 103, the usability of the input interface can be improved.

前述の実施形態においては、ジェスチャで各処理を入力するものとしたが、タッチセンサ103をさらに備えることにより、直感的、かつ、より高度な入力を実行することが可能となる。タッチセンサ103を介して、ユーザは、タップ、ダブルタップ、ドラッグ、フリック/スワイプ、ピンチイン/ピンチアウト等の種々の方法でウェアラブルデバイス1に処理の要求をすることが可能となる。さらには、タッチパネル上でドラッグをすることによるジェスチャ操作をすることもできる。例えば、第2ディスプレイ2に表示されている映像等に対して、文章にマーカをつけたり、拡大/縮小したり、地図にピン付けしたり、動画の再生/早送り/巻き戻しの処理を要求することが容易に可能となる。これらは一例として示したものであり、応用範囲は、これらには限られない。 In the above-described embodiment, each process is input by a gesture, but by further providing the touch sensor 103, it becomes possible to perform intuitive and more advanced input. Through the touch sensor 103, the user can request processing from the wearable device 1 by various methods such as tapping, double tapping, dragging, flicking / swiping, and pinch-in / pinch-out. Furthermore, gesture operations can be performed by dragging on the touch panel. For example, for the video displayed on the 2nd display 2, it is required to add a marker to the text, enlarge / reduce it, pin it to a map, and request playback / fast forward / rewind processing of the video. Is easily possible. These are shown as examples, and the scope of application is not limited to these.

物理ボタン104は、物理的にオン/オフしたり、トリガしたり、又は、トグルしたりするスイッチとして機能する入力インタフェースである。この物理ボタン104を、例えば、電源スイッチ等として備えてもよい。また、上記のタッチセンサ103を物理ボタン104に代わる構成として備えていてもよいし、物理ボタン104上にさらにタッチセンサ103が備えられていてもよい。例えば、物理ボタン104は、上記のタッチセンサ103の説明で記載したような機能を発揮できる処理を、処理部14へと要求できるものであってもよい。 The physical button 104 is an input interface that acts as a switch to physically turn on / off, trigger, or toggle. The physical button 104 may be provided, for example, as a power switch or the like. Further, the touch sensor 103 may be provided as an alternative to the physical button 104, or the touch sensor 103 may be further provided on the physical button 104. For example, the physical button 104 may be capable of requesting the processing unit 14 to perform a process capable of exerting the functions described in the above description of the touch sensor 103.

マイク105は、音を取得するセンサである。例えば、マイク105は、ユーザの音声及び周囲の環境音等を感知する。上記のジェスチャ等の代わりに、マイク105への音声入力を行ってもよい。音声入力を行う場合には、マイク105で感知した情報を処理部14が適切に処理をしてもよい。この処理には、機械学習により訓練された学習済モデルを用いてもよい。また、音声入力の他に、ユーザの笑い声を判断し、それに対応して第1ディスプレイ160の表示を変更してもよい。例えば、ユーザは、音声により、マイク105を介して、上述の種々の処理を処理部14へと通知できるものであってもよい。 The microphone 105 is a sensor that acquires sound. For example, the microphone 105 senses a user's voice, surrounding environmental sounds, and the like. Instead of the above gesture or the like, voice input to the microphone 105 may be performed. When performing voice input, the processing unit 14 may appropriately process the information sensed by the microphone 105. A trained model trained by machine learning may be used for this process. Further, in addition to the voice input, the laughter of the user may be determined and the display of the first display 160 may be changed accordingly. For example, the user may be able to notify the processing unit 14 of the above-mentioned various processes by voice via the microphone 105.

心拍センサ106は、ユーザの心拍(又は脈拍)を取得する。この心拍センサ106の感知した情報に基づいて、処理部14は、ユーザの状態に基づいた処理を実行することができる。例えば、ユーザの心拍が所定心拍よりも高ければ、ユーザが運動等を行っているとして、第1ディスプレイ160に出力する表示を変更することができる。例えば、ユーザの心拍がジョギングをしていると判断される心拍であった場合には、処理部14は、第1ディスプレイ160の表示をしないと判断してもよい。例えば、ユーザの心拍が無酸素運動を行っていると判断される心拍である場合には、ワークアウト用のアプリケーションを起動し、当該アプリケーションを第2ディスプレイ2に表示させ、第1ディスプレイ160を介して適切にユーザが自らの状態をモニタできるような表示を出力してもよい。 The heart rate sensor 106 acquires the user's heart rate (or pulse). Based on the information sensed by the heart rate sensor 106, the processing unit 14 can execute processing based on the user's state. For example, if the user's heartbeat is higher than the predetermined heartbeat, it is possible to change the display output to the first display 160, assuming that the user is exercising or the like. For example, if the user's heartbeat is a heartbeat that is determined to be jogging, the processing unit 14 may determine that the first display 160 is not displayed. For example, if the user's heart rate is determined to be anaerobic exercise, a workout application is launched, the application is displayed on the second display 2, and the application is displayed via the first display 160. The display may be output so that the user can appropriately monitor his / her own condition.

筋電センサ107は、ユーザの筋肉に流れる電流を取得する。例えば、筋電センサ107は、ユーザの皮膚を流れる微弱な電流から、ユーザの筋肉に流れる電流を取得する。この筋電センサ107も、心拍センサ106と同様の利用方法で用いることができる。 The myoelectric sensor 107 acquires the current flowing through the user's muscles. For example, the myoelectric sensor 107 acquires a current flowing through the user's muscles from a weak current flowing through the user's skin. This myoelectric sensor 107 can also be used in the same manner as the heart rate sensor 106.

体温センサ108は、ユーザの体温を取得する。この体温センサ108も、心拍センサ106と同様の利用方法で用いることができる。また、体温センサ108を用いることにより、ユーザが眠い状態等を取得してもよい。このような場合、処理部14は、第1ディスプレイ160を介して表示する第2ディスプレイ2の表示輝度を下げたり、ブルーライトを削減する色に変更(例えば、色温度を変更)したりしてもよい。 The body temperature sensor 108 acquires the user's body temperature. The body temperature sensor 108 can also be used in the same manner as the heart rate sensor 106. Further, by using the body temperature sensor 108, the user may acquire a sleepy state or the like. In such a case, the processing unit 14 lowers the display brightness of the second display 2 displayed via the first display 160, or changes the color to reduce the blue light (for example, changes the color temperature). May be good.

発汗センサ109は、ユーザの発汗状態を取得する。例えば、発汗センサ109は、ユーザの皮膚の湿り具合を感知することにより、ユーザの発汗状態を取得する。この発汗センサ109も同様に、ユーザの運動状態を知る1つのセンサとして機能してもよい。 The sweating sensor 109 acquires the sweating state of the user. For example, the sweating sensor 109 acquires the sweating state of the user by sensing the wetness of the skin of the user. Similarly, the sweating sensor 109 may function as one sensor for knowing the exercise state of the user.

脳波センサ110は、ユーザの脳波の状態を取得する。例えば、脳波センサ110は、筋電センサ107と同様に、ユーザの皮膚を流れる微弱な電流から脳波を推定する。この推定は、例えば、種々の軽い運動をしている状態に基づいたデータを取得し、取得したデータを訓練データとして機械学習により最適化された学習済モデルにより実現されてもよい。例えば、脳波センサ110は、眼鏡型のウェアラブルデバイス1に搭載される。一例として、ウェアラブルデバイス1の眼鏡のテンプルにこめかみに接触するよう、耳の裏に接触するよう、又は、眼鏡のパッドにおいて鼻に接触するように備えられる電極であってもよい。 The brain wave sensor 110 acquires the state of the user's brain wave. For example, the electroencephalogram sensor 110, like the myoelectric sensor 107, estimates an electroencephalogram from a weak current flowing through the user's skin. This estimation may be realized by a trained model optimized by machine learning, for example, by acquiring data based on various light exercise states and using the acquired data as training data. For example, the electroencephalogram sensor 110 is mounted on a glasses-type wearable device 1. As an example, an electrode may be provided so that the temple of the spectacles of the wearable device 1 touches the temple, touches the back of the ear, or touches the nose in the pad of the spectacles.

これら心拍センサ106、筋電センサ107、体温センサ108、発汗センサ109及び脳波センサ110は、例えば、リラックスしている、歩行している、走行している等のユーザの運動状態を取得するのみならず、ユーザの感情、体調、筋疲労等を取得するものとして機能してもよい。処理部14は、これらの処理を適切に実行できるような学習済モデルを備えていてもよいし、統計的に取得されたデータによるルールベースに基づいて判断を実行してもよい。さらに、処理部14は、マイク105により感知されたユーザの音声に基づいて、このようなユーザの感情、体調等を取得してもよい。 If the heart rate sensor 106, the myoelectric sensor 107, the body temperature sensor 108, the sweating sensor 109, and the brain wave sensor 110 only acquire the exercise state of the user such as relaxing, walking, or running, for example. Instead, it may function as a sensor for acquiring the user's emotions, physical condition, muscle fatigue, and the like. The processing unit 14 may include a trained model capable of appropriately executing these processes, or may execute a determination based on a rule base based on statistically acquired data. Further, the processing unit 14 may acquire such a user's emotion, physical condition, etc. based on the user's voice sensed by the microphone 105.

取得したユーザの運動状態、感情、体調等に基づいて、例えば、処理部14は、第1ディスプレイ160に出力する映像等を適切に切り替えたり、また、出力部16の他の構成要素から適切な情報を出力したりしてもよい。 Based on the acquired user's motor state, emotions, physical condition, etc., for example, the processing unit 14 appropriately switches the image to be output to the first display 160, or is appropriate from other components of the output unit 16. Information may be output.

位置センサ111は、例えば、GPSを備える。位置センサ111は、ウェアラブルデバイス1の位置を感知して出力する。この位置センサ111により取得された情報に基づいて、処理部14は、例えば、第2ディスプレイ2に地図を表示させてもよい。ユーザは、第1ディスプレイ160を介して、この地図を閲覧することが可能である。また、位置センサ111は、GPSには限られず、wi-fi(登録商標)、ビーコン等の電波を受信して当該電波に含まれる情報から位置を取得するセンサであってもよい。また、位置センサ111は、相対的な位置を取得するセンサであってもよく、この場合、慣性センサ100と合わせて、前述の実施形態の運動視差や腕の動きに対応した処理を、処理部14が実行することも可能である。 The position sensor 111 includes, for example, GPS. The position sensor 111 senses and outputs the position of the wearable device 1. Based on the information acquired by the position sensor 111, the processing unit 14 may display a map on the second display 2, for example. The user can view this map via the first display 160. Further, the position sensor 111 is not limited to GPS, and may be a sensor that receives radio waves such as wi-fi (registered trademark) and a beacon and acquires a position from information contained in the radio waves. Further, the position sensor 111 may be a sensor that acquires a relative position. In this case, in combination with the inertial sensor 100, the processing unit performs processing corresponding to the motion parallax and arm movement of the above-described embodiment. It is also possible for 14 to run.

出力部16は、前述のように第1ディスプレイ160を介して第2ディスプレイ2の一部又は全部の領域を表示可能とする。そして、例えば、ユーザの動作、ジェスチャ等のフィードバックを出力するフィードバック処理部が備えられていてもよい。フィードバック処理部として、スピーカ161、アクチュエータ162(バイブレータ)、発光素子163が備えられてもよい。もちろん、これらスピーカ161等は、フィードバックだけではなく、一般的な出力部として機能してもよい。 As described above, the output unit 16 can display a part or all of the area of the second display 2 via the first display 160. Then, for example, a feedback processing unit that outputs feedback such as user actions and gestures may be provided. A speaker 161, an actuator 162 (vibrator), and a light emitting element 163 may be provided as the feedback processing unit. Of course, these speakers 161 and the like may function not only as feedback but also as a general output unit.

スピーカ161は、音の情報を出力することによりユーザへと出力を行う。 The speaker 161 outputs sound information to the user.

アクチュエータ162は、ウェアラブルデバイス1の筐体を振動させることによりユーザへと出力を行う。 The actuator 162 outputs to the user by vibrating the housing of the wearable device 1.

発光素子163は、第1ディスプレイ160に備えられる発光素子とは別途備えられるLED(Light Emitting Diode)等であり、発光することによりユーザへと出力を行う。 The light emitting element 163 is an LED (Light Emitting Diode) or the like provided separately from the light emitting element provided in the first display 160, and outputs light to the user by emitting light.

フィードバック処理部として機能する場合、これらの出力部16の構成要素は、ユーザからの入力に対するフィードバック処理を実行する。例えば、フィードバック処理部は、ユーザからの入力が正常に取得された場合と、正常に取得されなかった場合とについて、異なる出力をしてもよい。フィードバック処理部は、例えば、正常/異常の場合に、それぞれ異なる音を発したり、異なる振動を出力したり、異なる発光方法で発光したりする。これには限られず、ユーザが入力したジェスチャに基づいたフィードバック出力をしてもよい。例えば、第1ジェスチャに対してと、第1ジェスチャと異なる第2ジェスチャに対してと、異なるフィードバックを実行してもよい。 When functioning as a feedback processing unit, the components of these output units 16 perform feedback processing for input from the user. For example, the feedback processing unit may output different outputs depending on whether the input from the user is normally acquired or not. The feedback processing unit emits different sounds, outputs different vibrations, and emits light by different light emitting methods, for example, in the case of normal / abnormal. The present invention is not limited to this, and feedback output may be performed based on the gesture input by the user. For example, different feedback may be performed for the first gesture and for a second gesture that is different from the first gesture.

ウェアラブルデバイス1は、さらに、通信部18を備える。通信部18は、外部のデバイス、サーバ等と、有線又は無線の手段により通信を行うインタフェースである。例えば、ウェアラブルデバイス1は、通信部18を介してサーバと接続される。 The wearable device 1 further includes a communication unit 18. The communication unit 18 is an interface that communicates with an external device, server, or the like by wired or wireless means. For example, the wearable device 1 is connected to the server via the communication unit 18.

ウェアラブルデバイス1は、通信部18を介して、サーバから種々の情報を取得することが可能である。例えば、第2ディスプレイ2に地図情報を仮想的に出力する場合には、位置センサ111から取得した位置情報に基づいて外部のサーバからこの地図情報を取得してもよい。もっとも、記憶部12に地図情報が格納されていてもよいし、サーバから通信部18を介して取得した地図情報を記憶部12に格納してもよい。 The wearable device 1 can acquire various information from the server via the communication unit 18. For example, when the map information is virtually output to the second display 2, the map information may be acquired from an external server based on the position information acquired from the position sensor 111. However, the map information may be stored in the storage unit 12, or the map information acquired from the server via the communication unit 18 may be stored in the storage unit 12.

また、ファームウェアの更新、種々のデータ等の更新を、通信部18を介したサーバにより実行してもよい。 Further, the firmware may be updated and various data may be updated by the server via the communication unit 18.

さらに、前述の実施形態における各所定点の位置、姿勢等の演算を、サーバ側で実行してもよい。すなわち、処理部14は、通信部18を介して各種センサからの感知情報をサーバへと送信し、通信部18を介してサーバにて処理した情報を受信してもよい。そして、サーバから受信した位置、姿勢の情報に基づいて、第1ディスプレイ160に出力する第2ディスプレイ2の領域、姿勢等を演算してもよいし、さらには、これらの演算を実行したデータそのものをサーバから取得してもよい。このように、各種演算は、処理部14ではなく、適切に外部のサーバで実行されてもよい。 Further, the calculation of the position, posture, etc. of each predetermined point in the above-described embodiment may be executed on the server side. That is, the processing unit 14 may transmit the sensing information from various sensors to the server via the communication unit 18 and receive the information processed by the server via the communication unit 18. Then, based on the position and posture information received from the server, the area of the second display 2 output to the first display 160, the posture, and the like may be calculated, and further, the data itself obtained by performing these calculations. May be obtained from the server. As described above, various operations may be appropriately executed by an external server instead of the processing unit 14.

例えば、ウェアラブルデバイス1は、ユーザによりBluetooth(登録商標)等によりスマートフォンとペアリングされてもよく、このスマートフォンをサーバとして利用することもできる。このように、ユーザのプライバシーを考慮した構成とすることもできる。 For example, the wearable device 1 may be paired with a smartphone by a user via Bluetooth (registered trademark) or the like, and this smartphone can also be used as a server. In this way, the configuration can be configured in consideration of the privacy of the user.

通信の状況及び計算機の計算能力に基づいて、適切に処理部14が処理を割り振ってもよいし、ユーザが明示的にいずれで処理するかを選択できるものであってもよい。また、処理部14で処理する演算と、サーバで処理する演算があらかじめ定義され、この定義に基づいて適切な場所で演算を実行できる構成としてもよい。すなわち、種々のデータの解析、及び、データの処理は、適切に処理部14、又は、サーバのいずれかで実行されてもよい。 The processing unit 14 may appropriately allocate the processing based on the communication status and the computing power of the computer, or the user may explicitly select which processing to perform. Further, the operation to be processed by the processing unit 14 and the operation to be processed by the server may be defined in advance, and the operation may be executed at an appropriate place based on this definition. That is, the analysis of various data and the processing of the data may be appropriately executed by either the processing unit 14 or the server.

通信部18は、例えば、サーバと接続されるものとしたが、これには限られない。例えば、サーバと接続された上で、他のユーザのデバイスと接続されてもよい。また、サーバを介さずに、他のデバイスと接続されてもよい。ウェアラブルデバイス1は、例えば、通信部18を介して、インターネットを用いて他のデバイスとP2P接続されてもよいし、又は、アドホックネットワークを形成して他のデバイスとP2P接続されてもよい。 The communication unit 18 is connected to, for example, a server, but the present invention is not limited to this. For example, it may be connected to a server and then connected to another user's device. Further, it may be connected to another device without going through a server. The wearable device 1 may be P2P connected to another device using the Internet, for example, via the communication unit 18, or may be P2P connected to another device by forming an ad hoc network.

別の例として、通信部18を介して、他のデバイスとの相対的な位置を検知することにより、第2ディスプレイ2又は第1ディスプレイ160に表示する映像等を切り替える処理を行ってもよい。このような処理を行うことにより、ウェアラブルデバイス1において、第2ディスプレイ2に他のデバイスを仮想的に表示したり、他のデバイスの位置に仮想的なオブジェクトを配置したりといった、他のデバイスとの位置関係によるAR機能を拡充することができる。 As another example, a process of switching an image or the like to be displayed on the second display 2 or the first display 160 may be performed by detecting a position relative to another device via the communication unit 18. By performing such processing, in the wearable device 1, the other device can be virtually displayed on the second display 2, or a virtual object can be placed at the position of the other device. It is possible to expand the AR function according to the positional relationship of.

以上のように、ウェアラブルデバイス1は、前述の第1実施形態及び第2実施形態の構成には限られず、種々のインタフェース、又は、構成要素を備えていてもよい。入力部10として種々のセンサを備えることにより、第1ディスプレイ160に表示する第2ディスプレイ2の表示内容、表示方法を幅広く処理することが可能となる。出力部16として種々のモジュールを備えることにより、入力部10が取得した情報の出力方法に幅広く対応することが可能となる。また、通信部18を備えることにより、通信を実行してよりユーザビリティを向上させることが可能となる。 As described above, the wearable device 1 is not limited to the configurations of the first embodiment and the second embodiment described above, and may include various interfaces or components. By providing various sensors as the input unit 10, it is possible to process a wide range of display contents and display methods of the second display 2 displayed on the first display 160. By providing various modules as the output unit 16, it is possible to widely support the output method of the information acquired by the input unit 10. Further, by providing the communication unit 18, it is possible to execute communication and further improve usability.

(第4実施形態)
前述の実施形態においては、種々の入出力インタフェースについて記載したが、本実施形態では、第1ディスプレイ160、第2ディスプレイ2の他の形態について説明する。
(Fourth Embodiment)
In the above-described embodiment, various input / output interfaces have been described, but in the present embodiment, other embodiments of the first display 160 and the second display 2 will be described.

第1ディスプレイ160は、平面状のディスプレイであるとしたが、これには限られない。例えば、第1ディスプレイ160は、腕時計型のウェアラブルデバイス1の外側に備えられるものとは限られず、内側に備えられていてもよいし、曲面として備えられていてもよいし、全周に亘り備えられるものであってもよい。また、他の形態として、第1ディスプレイ160は、折りたたみ型であってもよいし、また、外部へ発光する発光部を備え、ユーザの手の甲等に映像等を投影するものであってもよい。 The first display 160 is said to be a flat display, but the present invention is not limited to this. For example, the first display 160 is not limited to being provided on the outside of the wristwatch-type wearable device 1, but may be provided on the inside, as a curved surface, or on the entire circumference. It may be something that can be done. Further, as another form, the first display 160 may be a foldable type, or may be provided with a light emitting unit that emits light to the outside and may project an image or the like on the back of the user's hand or the like.

また、別の例として、第1ディスプレイ160は、3Dディスプレイであってもよい。例えば、微細なホールアレイを備え、当該ホールアレイを構成するホールのそれぞれから適切な微弱なコヒーレント光を出力することにより、光の干渉を用いて空間にプロジェクションするもの(ライトフィールドディスプレイ)であってもよい。また、ホログラフィ、液体凸レンズ、レーザーの網膜直接投射によりユーザに第2ディスプレイ2の内容を出力するものであってもよい。 Further, as another example, the first display 160 may be a 3D display. For example, a device having a fine hole array and projecting into space using light interference by outputting appropriate weak coherent light from each of the holes constituting the hole array (light field display). May be good. Further, the contents of the second display 2 may be output to the user by holography, a liquid convex lens, or a direct projection of the laser on the retina.

第2ディスプレイ2の形状は、仮想的に実現されるものであるので、第1ディスプレイ160よりもさらに柔軟な形状とすることが可能である。例えば、第2ディスプレイ2は、前述のように平面状であってもよい。また、第2ディスプレイ2は、広義のディスプレイとして、3Dの仮想現実空間を実装するものであってもよい。この場合、映像等は、当該空間に配置されたオブジェクト、背景等のことであってもよい。 Since the shape of the second display 2 is virtually realized, it is possible to make the shape more flexible than that of the first display 160. For example, the second display 2 may be flat as described above. Further, the second display 2 may implement a 3D virtual reality space as a display in a broad sense. In this case, the video or the like may be an object, a background, or the like arranged in the space.

例えば、形状、大きさは任意であってもよい。第2ディスプレイ2は、縦長、横長の長方形、円、多角形、円環等の任意の形状であり、スマートフォンのサイズ、新聞紙のサイズ等の任意の大きさであってもよい。 For example, the shape and size may be arbitrary. The second display 2 has an arbitrary shape such as a vertically long rectangle, a horizontally long rectangle, a circle, a polygon, and an annulus, and may have an arbitrary size such as a smartphone size and a newspaper size.

例えば、2次元的ではなく、3次元的な形状であってもよい。例えば、L字型、曲面、多面体の各面、球、ユーザを中心として円柱、立方体、ドーム型等であってもよい。 For example, it may have a three-dimensional shape instead of a two-dimensional shape. For example, it may be an L-shape, a curved surface, each face of a polyhedron, a sphere, a cylinder centered on the user, a cube, a dome shape, or the like.

例えば、1つではなく分離した複数の構成であってもよい。例えば、奥行き方向にウィンドウ又はタブが並べられていたり、ユーザの体の周囲に任意に並べられたりしてもよい。例えば、ジェスチャ入力用のリモコン、キーボードを示す第2ディスプレイ2がユーザの近くにあり、それより遠方に、画面型の第2ディスプレイ2が存在していてもよい。 For example, it may be a plurality of separated configurations instead of one. For example, windows or tabs may be arranged in the depth direction, or may be arbitrarily arranged around the user's body. For example, a remote controller for gesture input and a second display 2 indicating a keyboard may be near the user, and a screen-type second display 2 may be located further away from the user.

上述したように、ディスプレイではなく3Dのオブジェクトであってもよい。オブジェクトは、例えば、目覚まし時計、テレビ、ラジオ、本、ゲーム機等の任意の物体であってもよい。 As mentioned above, it may be a 3D object rather than a display. The object may be any object, for example, an alarm clock, a television, a radio, a book, a game console, or the like.

また、アプリケーションやコンテンツ側から第2ディスプレイ2の形状、位置が動的に変更されるものであってもよい。例えば、映画を見る場合には21:9のディスプレイであってもよいし、ウェブブラウザ閲覧用に縦長であり、さらには、別の形状のブックマーク領域が円環で手前にあってもよい。例えば、ゲームにおける主人公の状態、毒状態、暗闇状態により暗くなったり狭くなったりする変化をしてもよい。例えば、地球儀アプリケーションを呼び出した場合には、第2ディスプレイ2は、球状の形状へ変形してもよい。 Further, the shape and position of the second display 2 may be dynamically changed from the application or content side. For example, when watching a movie, it may be a 21: 9 display, it may be vertically long for browsing a web browser, and a bookmark area having another shape may be in front of the ring. For example, it may change to become darker or narrower depending on the state of the main character, the poisonous state, and the dark state in the game. For example, when calling the globe application, the second display 2 may be transformed into a spherical shape.

また、ユーザの状態により第2ディスプレイ2の形状、位置等を動的に変更してもよい。例えば、リラックスしている状態では、大きく目の前にあり、座っている場合は下似合ってもよい。歩行時には、小さいディスプレイであってもよいし、走行時は、ランニングフォームに適したミニマムなディスプレイと変形してもよい。 Further, the shape, position, etc. of the second display 2 may be dynamically changed depending on the state of the user. For example, when you are relaxed, you may be in front of you, and when you are sitting, you may look good. When walking, it may be a small display, or when running, it may be transformed into a minimum display suitable for a running form.

第2ディスプレイ2の外側の領域には、任意の内容を表示してもよい。例えば、ブルースクリーンであってもよいし、外側のカメラ101により取得した外部の映像を映し出してもよいし、あらかじめ定義されている仮想空間、テーマを表示してもよい。 Any content may be displayed in the area outside the second display 2. For example, it may be a blue screen, an external image acquired by the outer camera 101 may be projected, or a predefined virtual space or theme may be displayed.

処理部14は、適切に第2ディスプレイ2における映像等を変換し、第1ディスプレイ160に出力する。もちろん、前述したように、ジェスチャやユーザからの命令により、処理部14は、適切に第1ディスプレイ160に投影する第2ディスプレイ2の領域及び姿勢を計算して出力する。 The processing unit 14 appropriately converts the video and the like on the second display 2 and outputs the video to the first display 160. Of course, as described above, the processing unit 14 appropriately calculates and outputs the area and posture of the second display 2 projected on the first display 160 according to the gesture or the instruction from the user.

処理部14は、第3所定点Eの原点や軸の設定により、第1ディスプレイ160に投影される映像等の変換を適切に実行する。この場合、前述で説明した投影変換方法を適切なものへと代えて実行してもよい。また、投影誤差の安定化の補正をしてもよい。例えば、第1ディスプレイ160に表示されるべき映像等において、エイリアスが発生する場合には、種々のアンチエイリアス手法(例えば、平滑化)を用いて映像等を補正してもよい。これは、前述の各実施形態においても適用できる処理である。 The processing unit 14 appropriately executes conversion of an image or the like projected on the first display 160 by setting the origin and the axis of the third predetermined point E. In this case, the projection conversion method described above may be executed instead of an appropriate one. Further, the stabilization of the projection error may be corrected. For example, when an alias occurs in an image or the like to be displayed on the first display 160, the image or the like may be corrected by using various anti-aliasing methods (for example, smoothing). This is a process that can be applied also in each of the above-described embodiments.

以上のように、第1ディスプレイ160、第2ディスプレイ2は、平面状のディスプレイであるとは限られず、任意の形状、大きさのディスプレイであってもよい。処理部14により適切に変換を行うことにより、例えば、ウェアラブルデバイス1の動きに対応して第1ディスプレイ160に第2ディスプレイ2の一部又は全部を適切に表示することが可能となる。 As described above, the first display 160 and the second display 2 are not limited to flat displays, and may be displays having any shape and size. By appropriately performing conversion by the processing unit 14, for example, it becomes possible to appropriately display a part or all of the second display 2 on the first display 160 in response to the movement of the wearable device 1.

(第5実施形態)
本実施形態においては、ジェスチャの入力の例について説明する。ジェスチャの入力は、第1ディスプレイ160に対するジェスチャであってもよいし、第2ディスプレイ2に対するジェスチャであってもよい。また、上述したように、ユーザがみずからのからだを動かすことによるジェスチャであってもよいし、タッチパネル等への一般的なジェスチャ入力であってもよい。
(Fifth Embodiment)
In this embodiment, an example of gesture input will be described. The gesture input may be a gesture for the first display 160 or a gesture for the second display 2. Further, as described above, the gesture may be a gesture caused by the user moving his / her own body, or may be a general gesture input to a touch panel or the like.

図12は、第1ディスプレイ160へのジェスチャ入力の例を示す図である。例えば、第1ディスプレイ160がタッチパネルである場合、第1ディスプレイ160の表示面をタッチすることにより、ジェスチャ入力(タップ等の操作を含む)をすることが可能である。これは、一般的なスマートフォン等のデバイスと同様である。 FIG. 12 is a diagram showing an example of gesture input to the first display 160. For example, when the first display 160 is a touch panel, it is possible to perform gesture input (including operations such as tapping) by touching the display surface of the first display 160. This is the same as a device such as a general smartphone.

図13は、第2ディスプレイ2へのジェスチャ入力の例を示す図である。例えば、ウェアラブルデバイス1は、第1ディスプレイ160とは反対側の状態を取得するカメラ101を備える。このカメラ101によりユーザの指が検出された場合に、このユーザの指を第2ディスプレイ2の表示に重ねて第1ディスプレイ160へと出力してもよい。 FIG. 13 is a diagram showing an example of gesture input to the second display 2. For example, the wearable device 1 includes a camera 101 that acquires a state on the opposite side of the first display 160. When the user's finger is detected by the camera 101, the user's finger may be superimposed on the display of the second display 2 and output to the first display 160.

処理部14は、ユーザの指が第2ディスプレイ2の距離にあると判断する場合に、ジェスチャ入力を可能としてもよい。第2ディスプレイ2の距離とは、正確に平面等を示すものではなく、ディスプレイのある平面からある範囲の距離を許容範囲としてもよい。図13では、指がコンテンツと重なり、重なっている部分が見えなくなっているがこれには限られない。 The processing unit 14 may enable gesture input when it is determined that the user's finger is at a distance of the second display 2. The distance of the second display 2 does not accurately indicate a plane or the like, and a distance within a certain range from a certain plane of the display may be an allowable range. In FIG. 13, the finger overlaps with the content, and the overlapped part is not visible, but this is not limited to this.

図14は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図14に示すように、第2ディスプレイ2に表示されている映像等の情報を隠さないように、指を半透明にして第1ディスプレイ160に表示してもよい。また、透明度を代えるのではなく、ユーザの指の色を変更して、第1ディスプレイ160に表示してもよい。 FIG. 14 is a diagram showing another example of gesture input to the second display 2. As shown in FIG. 14, the finger may be translucent and displayed on the first display 160 so as not to hide the information such as the image displayed on the second display 2. Further, instead of changing the transparency, the color of the user's finger may be changed and displayed on the first display 160.

図15は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図15に示すように、第2ディスプレイ2に表示されている映像等に重ねて、アバターを適用したユーザの指を第1ディスプレイ160に表示してもよい。 FIG. 15 is a diagram showing another example of gesture input to the second display 2. As shown in FIG. 15, the finger of the user to which the avatar is applied may be displayed on the first display 160 by superimposing the image or the like displayed on the second display 2.

図16は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図16に示すように、第2ディスプレイ2に指を表示せずに、ユーザの指の位置を指し示すアイコンやカーソルを第1ディスプレイ160に表示してもよい。 FIG. 16 is a diagram showing another example of gesture input to the second display 2. As shown in FIG. 16, an icon or a cursor pointing to the position of the user's finger may be displayed on the first display 160 without displaying the finger on the second display 2.

図17は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図17に示すように、第2ディスプレイ2に指を表示せずに、ユーザの指の位置を指し示すアイコンを第1ディスプレイ160に表示してもよい。ここで、例えば、図16の状態において、インカメラにより取得されたユーザの顔が笑顔になった、ウインクをした、等の所定の表情となった場合に、アイコンを変化させてもよい。例えば、ユーザの顔が笑顔になったと判断された場合に、図16の状態から図17の状態へとアイコンが変更されてもよい。 FIG. 17 is a diagram showing another example of gesture input to the second display 2. As shown in FIG. 17, an icon indicating the position of the user's finger may be displayed on the first display 160 without displaying the finger on the second display 2. Here, for example, in the state of FIG. 16, the icon may be changed when the user's face acquired by the in-camera has a predetermined facial expression such as a smile or a wink. For example, when it is determined that the user's face is smiling, the icon may be changed from the state shown in FIG. 16 to the state shown in FIG.

これらの処理は、例えば、処理部14が、カメラ101が取得した画像に基づいて、ユーザの指を検出し、この検出結果に基づいて、指先の指し示す位置に上記のようなアバター等の処理を実行する。 In these processes, for example, the processing unit 14 detects the user's finger based on the image acquired by the camera 101, and based on the detection result, processes the avatar or the like as described above at the position indicated by the fingertip. Run.

また、ジェスチャは、指の位置だけではなく、例えば、指で空中をつまむ動作をしたり、手を払ったり、手を握ったり、又は、デコピンの動作をしたりすることにより、各種ジェスチャとして認識されるように設定してもよい。各ジェスチャに対する処理は、あらかじめ記憶部12に記憶され、処理部14により適切な処理がされてもよい。 In addition, gestures are recognized as various gestures not only by the position of the finger, but also by, for example, pinching the air with the finger, wiping the hand, holding the hand, or performing the deco pin movement. It may be set to be done. The processing for each gesture may be stored in the storage unit 12 in advance, and appropriate processing may be performed by the processing unit 14.

第2ディスプレイ2に対してタッチ動作等のジェスチャを実行する場合には、ユーザは、仮想的なディスプレイに対して位置決めをしなくてはならず、ディスプレイの位置を認識することが困難である。そこで、前述の実施形態において説明したフィードバック処理部の各構成により、ユーザが仮想的なディスプレイに接触したことを通知してもよい。例えば、音を出したり、ウェアラブルデバイス1を振動させたりすることにより、ユーザに通知してもよい。 When performing a gesture such as a touch operation on the second display 2, the user must position the virtual display, and it is difficult to recognize the position of the display. Therefore, each configuration of the feedback processing unit described in the above-described embodiment may notify the user that the user has touched the virtual display. For example, the user may be notified by making a sound or vibrating the wearable device 1.

図18は、ディスプレイに対する視線方向で位置を指定する場合の一例を示すである。例えば、処理部14は、インカメラにおいて取得されたユーザの視線方向に基づいて、ユーザが第2ディスプレイ2のどの位置を見ているかを推定する。この推定結果に基づいて、ポインタを第1ディスプレイ160に表示してもよい。視線方向の推定は、上述の種々の推定と同様に、多数の訓練データを用いて機械学習により最適化した学習済モデルを用いてもよいし、統計的に得られたルールベースに基づいたモデルを用いて実行されてもよい。 FIG. 18 shows an example of a case where the position is specified in the line-of-sight direction with respect to the display. For example, the processing unit 14 estimates which position of the second display 2 the user is looking at based on the user's line-of-sight direction acquired by the in-camera. Based on this estimation result, the pointer may be displayed on the first display 160. As for the estimation of the line-of-sight direction, a trained model optimized by machine learning using a large number of training data may be used as in the various estimations described above, or a model based on a statistically obtained rule base. May be performed using.

図19は、第2ディスプレイ2へのジェスチャ入力の別の例を示す図である。この図19に示すように、第1ディスプレイ160が手の甲へのプロジェクションである場合に、手の甲へのジェスチャを第1ディスプレイ160に第2ディスプレイ2の表示に重ねて表示してもよい。この場合、第1ディスプレイ160として機能する発光部を手の甲側へと備えるとともに、手の甲の方向の情報を取得するカメラ101を備える。そして、処理部14は、このカメラ101により取得した画像からユーザの指を検出し、第1ディスプレイ160へと第2ディスプレイ2の映像等に重ねて表示する。 FIG. 19 is a diagram showing another example of gesture input to the second display 2. As shown in FIG. 19, when the first display 160 is a projection to the back of the hand, the gesture to the back of the hand may be displayed on the first display 160 on the display of the second display 2. In this case, a light emitting unit that functions as the first display 160 is provided on the back side of the hand, and a camera 101 that acquires information on the direction of the back of the hand is provided. Then, the processing unit 14 detects the user's finger from the image acquired by the camera 101 and displays it on the first display 160 by superimposing it on the image of the second display 2.

これらのジェスチャ入力には、カメラ101を利用するとしたが、測距センサ102を併せて利用してもよい。測距センサ102からの情報を取得することにより、例えば、ユーザの指が第2ディスプレイ2の位置にあることをより正確に取得することが可能となる。 Although the camera 101 is used for these gesture inputs, the distance measuring sensor 102 may also be used. By acquiring the information from the distance measuring sensor 102, for example, it becomes possible to more accurately acquire that the user's finger is at the position of the second display 2.

また、ジェスチャは、ディスプレイに対するものに限定されるものではない。例えば、ユーザのウェアラブルデバイス1を装着している、若しくは、装着していない手の甲、掌、指、又は、ユーザの顎、頬、耳、額、頭部、髪の毛等の顔の一部、さらには、ユーザの太腿、胸等のからだの他の箇所、へのジェスチャを取得するものであってもよい。その他一般的なジェスチャである、手の形、指先の軌跡、視線、瞬き、表情等を用いたジェスチャであってもよい。 Also, gestures are not limited to those for displays. For example, the back of the hand, palm, fingers, or part of the face such as the user's chin, cheeks, ears, forehead, head, hair, etc., with or without the user's wearable device 1. , The gesture to other parts of the body such as the user's thighs and chest may be acquired. Other general gestures such as hand shape, fingertip trajectory, line of sight, blinking, facial expression, etc. may be used.

もちろん、入力は、ジェスチャ以外の方法で実行することもできる。このジェスチャ以外の方法に、一般的なユーザインタフェースとして認知されている入力方法を組み合わせて用いてもよい。例えば、上述した物理ボタン104を用いたり、マイク105、又は、他のセンサによる生体信号を取得したりして、種々の状況を読み取ってもよい。 Of course, the input can also be performed by methods other than gestures. An input method recognized as a general user interface may be used in combination with a method other than this gesture. For example, various situations may be read by using the above-mentioned physical button 104, acquiring a biological signal by a microphone 105, or another sensor.

図20は、ジェスチャによる処理の一例を示す図である。前述した実施形態においては、ウェアラブルデバイス1の位置により第1ディスプレイ160に表示されている第2ディスプレイ2の領域等を変更する例について説明したが、表示する領域を変更する方法は、これには限られない。例えば、図20に示すように、第2ディスプレイ2をユーザが指でつまむジェスチャをし、第2ディスプレイ2を移動させることも可能である。図20のように動かした場合、第1ディスプレイ160に表示される内容は、例えば、処理部14により、図8のように変換される。 FIG. 20 is a diagram showing an example of processing by gesture. In the above-described embodiment, an example of changing the area of the second display 2 displayed on the first display 160 depending on the position of the wearable device 1 has been described. Not limited. For example, as shown in FIG. 20, it is also possible for the user to make a gesture of pinching the second display 2 with a finger to move the second display 2. When moved as shown in FIG. 20, the content displayed on the first display 160 is converted as shown in FIG. 8 by, for example, the processing unit 14.

例えば、第2ディスプレイ2を手で摘まんでいる状態では、フィードバック処理部は、所定の音を出し続けたり、振動し続けたりしてもよいし、つまんだ状態に遷移したことをフィードバックによりユーザに通知してもよい。 For example, when the second display 2 is being picked up by hand, the feedback processing unit may continue to make a predetermined sound or vibrate, or the user may be notified by feedback that the second display 2 has transitioned to the pinched state. You may notify.

図21は、ジェスチャによる処理の一例を示す図である。もちろん、図21のように、第2ディスプレイ2をユーザに近づけたり、遠ざけたりする処理をジェスチャで実行することも可能である。この場合、処理部14により第1ディスプレイ160に表示される内容は、図10のように変換される。 FIG. 21 is a diagram showing an example of processing by gesture. Of course, as shown in FIG. 21, it is also possible to perform a process of moving the second display 2 closer to or further away from the user with a gesture. In this case, the content displayed on the first display 160 by the processing unit 14 is converted as shown in FIG.

これらの変換は、例えば、式(13)におけるW VMの固定値を変更することにより対応することが可能である。 These transformations, for example, can be accommodated by changing the fixed value W V M in the formula (13).

ユーザは、任意の位置で第2ディスプレイ2の移動を終了することができる。終了のジェスチャは、例えば、手をつまんだ状態からそれ以外の状態へと遷移させることにより実現されてもよい。 The user can end the movement of the second display 2 at any position. The ending gesture may be realized, for example, by transitioning from a pinched state to another state.

このように、第2ディスプレイ2の位置を所定の位置から変更することも可能である。この場合、第2ディスプレイ2が体に近すぎると、コンテンツが見づらくなる可能性がある。このため、処理部14は、所定距離以内には第2ディスプレイ2が近づけないようにしてもよい。第2ディスプレイ2が所定距離に到達した場合には、フィードバック処理部により、所定のフィードバック通知を行ってもよい。また、一度設定した第2ディスプレイ2の距離は、次の起動時にも同じ設定から開始されるように、記憶部12に保存されてもよい。この場合、次の起動時には、処理部14は、記憶部12に保存されている、更新された状態のW VMを読み込むことにより、第1ディスプレイ160に適切に第2ディスプレイ2の映像等を出力することが可能となる。 In this way, it is also possible to change the position of the second display 2 from a predetermined position. In this case, if the second display 2 is too close to the body, the content may be difficult to see. Therefore, the processing unit 14 may prevent the second display 2 from approaching within a predetermined distance. When the second display 2 reaches a predetermined distance, the feedback processing unit may give a predetermined feedback notification. Further, the distance of the second display 2 once set may be saved in the storage unit 12 so that the same setting is started at the next startup. In this case, the next startup, the processing unit 14 is stored in the storage unit 12, by reading the W V M of the updated state, the first display 160 to properly second image of the display 2 such as It becomes possible to output.

第1ディスプレイ160、第2ディスプレイ2は、例えば、ウェアラブルデバイス1の位置に依存するが、腕時計型のウェアラブルデバイス1は、個人によりつける位置が異なる。このため、右利き、左利きようのジェスチャ認証が実行されるようにしておいてもよい。また、第1ディスプレイ160の向きも、外向き、内向きのいずれにも対応できるようにしておいてもよい。例えば、外向きでは手の甲に第1ディスプレイ160を投影してもよいし、内向きでは、掌に第1ディスプレイ160を投影してもよい。 The first display 160 and the second display 2 depend on, for example, the position of the wearable device 1, but the position of the wristwatch-type wearable device 1 differs depending on the individual. Therefore, right-handed and left-handed gesture authentication may be executed. Further, the orientation of the first display 160 may be such that it can be oriented outward or inward. For example, the first display 160 may be projected on the back of the hand when facing outward, and the first display 160 may be projected on the palm when facing inward.

第2ディスプレイ2にジェスチャを行う場合のフィードバックは、上記下のみならず種々の対応であってもよい。 The feedback when performing a gesture on the second display 2 may be various measures as well as the above.

例えば、触覚的なフィードバックとして、アクチュエータ162は、第2ディスプレイ2に接触したときにパルス的に振動させてもよい。そして、接触が続く場合には、継続的に振動をさせてもよい。また、ジェスチャが受け付けられたことを、示す所定の振動を、アクチュエータ162は、フィードバックにより通知してもよい。 For example, as tactile feedback, the actuator 162 may pulsately vibrate when in contact with the second display 2. Then, if the contact continues, it may be continuously vibrated. Further, the actuator 162 may notify by feedback a predetermined vibration indicating that the gesture has been accepted.

もちろん、このフィードバックは、聴覚的な刺激、すなわち、スピーカ161からの音の出力であってもよいし、視覚的な刺激、すなわち、発光素子163からの発光であってもよい。例えば、音色、周波数、音の長さを変えたり、発光の色、強度、間隔等を変えたりすることにより、種々のジェスチャに対応したフィードバックを実行することができる。 Of course, this feedback may be an auditory stimulus, that is, a sound output from the speaker 161 or a visual stimulus, that is, a light emission from the light emitting element 163. For example, feedback corresponding to various gestures can be executed by changing the tone color, frequency, sound length, and the emission color, intensity, interval, and the like.

以上のように、本実施形態において、実ディスプレイ、仮想ディスプレイの様々な形態について説明した。本実施形態に説明したように、実ディスプレイ、仮想ディスプレイは、平面状のディスプレイに限定されることなく、種々の形態をとることが可能である。また、仮想ディスプレイに接触した場合に、ユーザに、その接触状態をフィードバックすることにより、現実に存在しないディスプレイの操作等をより効率的に実現することが可能となる。 As described above, various forms of the real display and the virtual display have been described in the present embodiment. As described in the present embodiment, the real display and the virtual display are not limited to the flat display, and can take various forms. Further, when the virtual display is touched, the contact state is fed back to the user, so that the operation of the display that does not actually exist can be realized more efficiently.

(第5実施形態)
前述の各実施形態においては、第1ディスプレイ160は、第2ディスプレイ2の一部又は全部の領域を表示するものとしたが、これには限られない。例えば、第1ディスプレイ160は、通常の携帯型のディスプレイ付きデバイスのように、仮想ディスプレイを閲覧するのではなく、それ自身に独立したコンテンツを第1ディスプレイ160に直接的に表示することも可能である。
(Fifth Embodiment)
In each of the above embodiments, the first display 160 is intended to display a part or all of the area of the second display 2, but is not limited to this. For example, the first display 160 can display its own independent content directly on the first display 160 instead of browsing the virtual display like a normal portable device with a display. be.

ウェアラブルデバイス1は、第1ディスプレイ160における表示を、独立コンテンツと、第2ディスプレイ2の映像等と、に切り替える機能を有していてもよい。例えば、運動している場合には、ユーザが明示的に手動で切り替え、又は、入力部10の各種センサからの感知情報により処理部14が自動で切り替えを行ってもよい。この他、ウェアラブルデバイス1は、ユーザが体を動かしづらい状況であったり、疲れている状況であったりする場合に、独立コンテンツを表示してもよい。この設定は、ユーザが自由に選択することも可能である。 The wearable device 1 may have a function of switching the display on the first display 160 between independent content, an image on the second display 2, and the like. For example, when exercising, the user may explicitly switch manually, or the processing unit 14 may automatically switch based on the sensing information from various sensors of the input unit 10. In addition, the wearable device 1 may display independent content when the user is in a situation where it is difficult to move or is tired. This setting can also be freely selected by the user.

ウェアラブルデバイス1は、第1ディスプレイ160の表示において、独立コンテンツを表示することを基本として、第2ディスプレイ2の映像等を表示するモードを備えていてもよい。逆に、ウェアラブルデバイス1は、第1ディスプレイ160の表示において、第2ディスプレイ2を表示することを基本として、第1ディスプレイ160に独立したコンテンツを表示するモードを備えていてもよい。すなわち、装置の機能としてデフォルトであるモードは、第1ディスプレイ160の独立コンテンツ表示モードであってもよいし、第2ディスプレイ2のコンテンツ表示モードであってもよい。 The wearable device 1 may have a mode for displaying an image or the like of the second display 2 on the basis of displaying independent contents in the display of the first display 160. On the contrary, the wearable device 1 may have a mode of displaying independent contents on the first display 160 based on displaying the second display 2 in the display of the first display 160. That is, the mode that is the default as a function of the device may be the independent content display mode of the first display 160 or the content display mode of the second display 2.

あるいは、これらの2つは、相互に全く独立したモードであり、並列に実行される関係性であってもよい。この場合、ユーザが、いずれのモードをデフォルトのモードに設定するかを選択できるものであってもよい。 Alternatively, these two modes may be completely independent of each other and may be related to being executed in parallel. In this case, the user may be able to select which mode is set as the default mode.

これらの表示モードは、上述したようにユーザのコンテキストに基づいて自動的に切り替えられてもよい。この切り替えは、例えば、慣性センサ100の感知情報に基づいて、処理部14によりユーザが家でリラックスしている状態であると判断した場合には、仮想ディスプレイ表示モード、ユーザが電車に乗っていたり、移動していたりすると判断した場合には、独立コンテンツ表示モードと切り替えてもよい。この他、入力部10の感知情報に基づいて処理部14が、ユーザが歩行している、走行している、筋疲労している、眼精疲労がうかがえる、といったようなコンテキストを検知した場合に、それぞれ適切な表示モードに切り替える処理を行ってもよい。 These display modes may be switched automatically based on the user's context as described above. This switching is performed, for example, when the processing unit 14 determines that the user is in a relaxed state at home based on the sensing information of the inertial sensor 100, the virtual display display mode, the user is on the train, or the like. If it is determined that the user is moving, the mode may be switched to the independent content display mode. In addition, when the processing unit 14 detects a context such as walking, running, muscle fatigue, or eye strain, based on the sensing information of the input unit 10. , Each may perform a process of switching to an appropriate display mode.

(第6実施形態)
前述の各実施形態において、ウェアラブルデバイス1は、基本的に腕時計型のデバイスであるとして説明したが、本開示の内容は、これに限定されるものではない。ウェアラブルデバイス1は、例えば、スマートフォン、タブレット型端末、指輪型端末、ゲーム機、デジタルカメラ、眼鏡型デバイス等であってもよい。
(Sixth Embodiment)
In each of the above-described embodiments, the wearable device 1 has been described as basically a wristwatch-type device, but the content of the present disclosure is not limited thereto. The wearable device 1 may be, for example, a smartphone, a tablet terminal, a ring terminal, a game machine, a digital camera, a glasses-type device, or the like.

腕時計型ではないウェアラブルデバイス1では、処理部14のジェスチャ等の処理に用いていた拘束条件が使用できない場合がある。このため、第1ディスプレイ160に表示される第2ディスプレイ2の映像等と、第1ディスプレイ160の位置、姿勢との間に齟齬が生じる場合がある。これを回避するために、別の拘束条件を使用して、各数式のパラメータ等を設定してもよい。これは、ウェアラブルデバイス1に固有のパラメータとして、あらかじめ設定されるものでもよい。また、別の例として、初期起動時又は定期的にキャリブレーション等を実行してパラメータを再設定してもよい。さらに、別の例として、ウェアラブルデバイス1の持ち方等の利用方法を制限してもよい。 In the wearable device 1 which is not a wristwatch type, the constraint condition used for processing the gesture of the processing unit 14 may not be used. Therefore, there may be a discrepancy between the image of the second display 2 displayed on the first display 160 and the position and posture of the first display 160. In order to avoid this, another constraint condition may be used to set the parameters of each mathematical expression. This may be preset as a parameter specific to the wearable device 1. Further, as another example, the parameters may be reset at the time of initial startup or by periodically performing calibration or the like. Further, as another example, the usage method such as how to hold the wearable device 1 may be restricted.

例えば、スマートフォン型のデバイスである場合には、ウェアラブルデバイス1の持ち方に制限を加えてもよい。また、個々のユーザが、初期起動時、定期的又はユーザが自発的に操作することにより、デバイスの指示に従ってデバイスを把持したり移動させたりして、キャリブレーションを実行してもよい。 For example, in the case of a smartphone-type device, the way of holding the wearable device 1 may be restricted. Further, the individual user may perform the calibration by grasping or moving the device according to the instruction of the device at the time of initial startup, periodically or by the user's voluntary operation.

例えば、指輪型や眼鏡型である場合には、腕に装着する場合と別の拘束条件を多く設定することが可能である。これらの拘束条件に基づいて、前述の数式等におけるパラメータをあらかじめ設定しておいてもよい。もちろん、この場合においても、初期起動時、定期的又はユーザが自発的に、キャリブレーションを実行してもよい。 For example, in the case of a ring type or a spectacle type, it is possible to set many different restraint conditions from the case of wearing it on the arm. Based on these constraint conditions, the parameters in the above-mentioned mathematical formulas and the like may be set in advance. Of course, even in this case, the calibration may be performed periodically or voluntarily at the time of initial startup.

指輪型のデバイスである場合、第1ディスプレイ160をウェアラブルデバイス1自体に備えてもよいし、第1ディスプレイ160として投影型のディスプレイとしてもよい。投影先は、任意の場所、例えば、机、壁、その他平面、装着していない手の甲、平といった場所であってもよい。もちろん、前述のように、ライトフィールドディスプレイ、網膜症社型のディスプレイとして機能してもよい。 In the case of a ring-type device, the first display 160 may be provided in the wearable device 1 itself, or the first display 160 may be a projection-type display. The projection destination may be any place, for example, a desk, a wall, another flat surface, an unmounted back of the hand, or a palm. Of course, as described above, it may function as a light field display or a retinopathy-type display.

眼鏡型のデバイスである場合、眼鏡のレンズを第1ディスプレイ160として利用してもよい。第1ディスプレイ160として利用するレンズは、片目又は両目であってもよい。両方のレンズを第1ディスプレイ160として用いる場合には、両目の視差に基づいて、立体視できる映像等を出力してもよい。また、別の例として、異なるコンテンツを出力するようにしてもよい。 In the case of a spectacle-type device, the lens of the spectacles may be used as the first display 160. The lens used as the first display 160 may be one eye or both eyes. When both lenses are used as the first display 160, an image or the like that can be viewed stereoscopically may be output based on the parallax of both eyes. Further, as another example, different contents may be output.

第2ディスプレイ2を第1ディスプレイ160としてのレンズに投影する場合、レンズの背景に見えるものを遮断して、完全にディスプレイのみとして用いてもよいし、レンズの背景に見えるものを遮断せずに、実際にレンズ越しに見える光景と、第2ディスプレイ2の映像等とを重畳して見られる形態としてもよい。 When projecting the second display 2 onto the lens as the first display 160, it may be used completely as a display only by blocking what is visible in the background of the lens, or without blocking what is visible in the background of the lens. The image actually seen through the lens may be superimposed on the image of the second display 2.

ジェスチャとして視線、瞬き等の目の周りの筋肉の動き又は眼球の動きの少なくとも一方を有効に利用するために、フレーム部分に、目及び目周辺の状態を取得できるカメラ101を1又は複数備えていてもよい。さらに、測距センサ102等、前述の実施形態で説明された他のセンサにより、種々のユーザの状態を取得してもよい。例えば、頭に近い場所に装着されるので脳波を取得したり、顔の筋肉の筋電状態等を感知したりできるセンサを適切な箇所、例えば、テンプル、パッド等に備えていてもよい。 In order to effectively utilize at least one of the movements of the muscles around the eyes such as the line of sight and blinking or the movement of the eyeball as a gesture, the frame part is equipped with one or more cameras 101 capable of acquiring the state of the eyes and the area around the eyes. You may. Further, various user states may be acquired by other sensors described in the above-described embodiment, such as the ranging sensor 102. For example, a sensor that can acquire brain waves because it is attached to a place close to the head and can detect the myoelectric state of facial muscles may be provided at an appropriate place, for example, a temple or a pad.

別の例として、フレーム等から、手の甲、平に投影するタイプの第1ディスプレイ160として構成されてもよい。 As another example, it may be configured as a first display 160 of a type that projects from a frame or the like to the back of the hand or the palm of the hand.

ジェスチャは、目の動きに限定されるわけではなく、前述と同様に、手等の動きに夜ものであってもよい。この場合、手等の動きを取得できるカメラ101、測距センサ102等を、フレームから外側を取得するといった場所等に、適切に備えていてもよい。 Gestures are not limited to eye movements, and may be night movements such as hands, as described above. In this case, a camera 101, a distance measuring sensor 102, or the like capable of acquiring the movement of a hand or the like may be appropriately provided in a place or the like where the outside is acquired from the frame.

また、ウェアラブルデバイス1は、1つの固定した形状を有するのみにはとどまらない。例えば、ウェアラブルデバイス1は、腕時計型と、眼鏡型とを変形できるデバイスであってもよい。別の例として、例えば、レンズ型のウェアラブルデバイス1として機能し、腕のバンドに装着すれば腕時計型、眼鏡型の装着器に装着すれば眼鏡型として利用できる等の方法であってもかまわない。さらに、腕時計型、眼鏡型、板型に変形できるデバイスであってもよい。 Also, the wearable device 1 does not stop at having only one fixed shape. For example, the wearable device 1 may be a device capable of transforming a wristwatch type and a spectacle type. As another example, for example, it may function as a lens-type wearable device 1, and can be used as a wristwatch-type if it is attached to an arm band, or as a spectacle-type if it is attached to a spectacle-type wearer. .. Further, it may be a device that can be transformed into a wristwatch type, a spectacle type, or a plate type.

また、第1ディスプレイ160として、折り曲げたり、丸めたりできるディスプレイを用いてもよい。このように、物理的に形状が変形できるウェアラブルデバイス1を利用することにより、ユーザが状況に応じて変形して利用する等、よりユーザビリティを向上することが可能となる。 Further, as the first display 160, a display that can be folded or rolled may be used. In this way, by using the wearable device 1 whose shape can be physically deformed, it is possible to further improve usability, for example, the user can deform and use the wearable device 1 according to the situation.

(第7実施形態)
前述の実施形態では、全般的な処理の内容について具体例を挙げて説明したが、本実施形態では、より具体的なその他のユースケースについて説明する。
(7th Embodiment)
In the above-described embodiment, the contents of the general processing have been described with specific examples, but in the present embodiment, more specific other use cases will be described.

以下には、ジェスチャ等の具体例が挙げられているが、本開示の内容は、これらは限定的なものではない。例えば、ユーザが実行可能であり、入力部10が適切に感知可能、処理部14が適切に検出可能である所定のジェスチャに対して適切な処理が実行されるのであれば、どのようなジェスチャであってもよい。 Specific examples of gestures and the like are given below, but the contents of the present disclosure are not limited to these. For example, what gesture is used as long as the appropriate processing is executed for a predetermined gesture that can be executed by the user, can be appropriately sensed by the input unit 10, and can be appropriately detected by the processing unit 14. There may be.

また、それぞれのジェスチャ等は、ユーザにより設定したり、較正したりすることも可能である。例えば、瞬きを連続でするジェスチャの場合、瞬きの間隔、回数等をユーザが設定できるものであってもよい。 In addition, each gesture or the like can be set or calibrated by the user. For example, in the case of a gesture in which blinking is continuous, the user may be able to set the blink interval, the number of blinks, and the like.

(第1例)
ウェアラブルデバイス1は、SNS(Social Networking Service)に最適化されたアプリケーションを処理部14により実行してもよい。例えば、通知が来ると、アクチュエータ162が所定の振動をしてユーザに通知が来た旨を伝える。腕を振り上げると、当該通知の内容、例えば、メッセージの内容が第2ディスプレイ2に表示され、第1ディスプレイ160を介してユーザが閲覧することができる。
(1st example)
The wearable device 1 may execute an application optimized for SNS (Social Networking Service) by the processing unit 14. For example, when a notification arrives, the actuator 162 vibrates in a predetermined manner to notify the user that the notification has arrived. When the arm is raised, the content of the notification, for example, the content of the message is displayed on the second display 2 and can be viewed by the user through the first display 160.

ジェスチャ、例えば、腕を動かしたり、顔を動かしたりすることにより入力する。例えば、メッセージを表示した状態で笑顔、又は、親指をあげる等のジェスチャを入力することで、「いいね!」が当該メッセージに送信されてもよい。 Enter by gestures, such as moving your arms or moving your face. For example, "Like" may be sent to the message by inputting a gesture such as smiling or raising the thumb while the message is displayed.

メッセージに返信するためには、別のジェスチャを準備してもよい。例えば、ウェアラブルデバイス1を装着している手の親指にマッピングされたキーボードを人差し指で触ってフリック入力が可能である形態としてもよい。 You may prepare another gesture to reply to the message. For example, a keyboard mapped to the thumb of the hand wearing the wearable device 1 may be touched with the index finger to enable flick input.

この場合、ウェアラブルデバイス1は、例えば、装着側の親指が撮影可能なカメラ101を備えてもよいし、筋電センサ107により、微細な指の動きを取得できる形態としてもよい。また、装着側の手の甲にマッピングされたキーボードを、もう片方の手の指でフリックすることにより入力可能な形態としてもよい。文字入力が終了した後のメッセージの送信にも、別の所定のジェスチャが付与されていてもよい。 In this case, the wearable device 1 may be provided with, for example, a camera 101 capable of photographing the thumb on the wearing side, or may be in a form in which minute finger movements can be acquired by the myoelectric sensor 107. Further, the keyboard mapped to the back of the hand on the wearing side may be in a form in which input can be performed by flicking with the finger of the other hand. Another predetermined gesture may be given to the transmission of the message after the character input is completed.

(第2例)
ウェアラブルデバイス1は、瞬きをすることをジェスチャ入力として受信してもよい。ユーザが瞬きを所定回数、例えば、3回連続ですることにより、ユーザを中心とした円筒状のディスプレイに第2ディスプレイ2を変形してもよい。例えば、この円筒状のディスプレイには、その表面にユーザに向かってアプリケーションが並んでいる。円筒の表面を触れてスワイプ、フリック等することにより、円筒状のディスプレイがユーザを中心に回転してもよい。
(2nd example)
The wearable device 1 may receive blinking as a gesture input. The second display 2 may be transformed into a cylindrical display centered on the user by blinking the user a predetermined number of times, for example, three times in a row. For example, this cylindrical display has applications lined up on its surface towards the user. The cylindrical display may rotate around the user by touching the surface of the cylinder and swiping, flicking, or the like.

ユーザは、起動したい、又は、表示させたいアプリケーションに対して、瞬き、腕の動き、顔の表情等のジェスチャを入力することにより、アプリケーションを起動、又は、表示させる。例えば、ユーザがアプリケーションに視線を合わせて2回瞬きをすることにより、当該アプリケーションが表示されてもよい。アプリケーションの表示後は、第2ディスプレイ2を平面状のディスプレイにしてもよい。 The user starts or displays the application by inputting gestures such as blinking, arm movement, facial expression, etc. to the application to be started or displayed. For example, the application may be displayed by the user looking at the application and blinking twice. After displaying the application, the second display 2 may be a flat display.

(第3例)
ウェアラブルデバイス1は、ジェスチャによる閲覧に最適化されたウェブブラウザを起動できるものであってもよい。例えば、当該ウェブブラウザを置きどうすると、第2ディスプレイ2が縦長の長方形に変形する。腕、顔を動かしたり、ウェアラブルデバイス1を装着していない方の手で摘まむジェスチャ等を入力したりすることにより、第2ディスプレイ2を動かすことが可能な構成であってもよい。
(3rd example)
The wearable device 1 may be capable of launching a web browser optimized for gesture browsing. For example, when the web browser is placed, the second display 2 is transformed into a vertically long rectangle. The second display 2 may be movable by moving the arm and face, or inputting a gesture or the like to be picked by the hand of the person who does not wear the wearable device 1.

また、スクロールボタンを注視するコマンド入力により、処理部14は、コンテンツのスクロール表示を行ってもよい。このスクロール表示は、第1ディスプレイ160に表示する第2ディスプレイ2の領域等を移動させる処理として実装されてもよいし、第2ディスプレイ2の表示をスクロールさせる処理として実装されてもよい。また、処理部14は、入力部10を介して目を細めるジェスチャを検出すると、文字サイズを大きくしたり、部分的に拡大したりする処理を実行してもよい。 Further, the processing unit 14 may perform scroll display of the content by inputting a command to watch the scroll button. This scroll display may be implemented as a process of moving the area of the second display 2 displayed on the first display 160, or may be implemented as a process of scrolling the display of the second display 2. Further, the processing unit 14 may execute a process of increasing the character size or partially enlarging the character size when the gesture of squinting is detected via the input unit 10.

(第4例)
ウェアラブルデバイス1を装着していない手で耳に触れるジェスチャをすると、音楽再生アプリケーションが起動する実装としてもよい。この場合、処理部14は、第2ディスプレイ2を円環形状のディスプレイとしてもよい。ウェアラブルデバイス1を装着している側の手の指をくるくると回すジェスチャをすることにより、円環を回す処理が実行されてもよい。この円環を回す処理により、プレイリストから聞きたい曲を探索してもよいし、ボリューム操作としてもよい。別途、再生のためのジェスチャ入力が用意されていてもよい。
(4th example)
It may be an implementation that launches a music playback application by making a gesture that touches the ear with a hand that is not wearing the wearable device 1. In this case, the processing unit 14 may use the second display 2 as a ring-shaped display. The process of turning the annulus may be executed by making a gesture of turning the fingers of the hand on which the wearable device 1 is attached. By the process of turning this annulus, the song to be heard may be searched from the playlist, or it may be a volume operation. A gesture input for playback may be prepared separately.

そして、第2ディスプレイ2を払うジェスチャをすることにより、アクチュエータ162により触覚によるフィードバックが実行され、このアプリケーションを最小化、又は、バックグラウンド再生にいこうしてもよい。 Then, by making a gesture that pays for the second display 2, the actuator 162 may perform tactile feedback to minimize this application or go to background playback.

(第5例)
ウェアラブルデバイス1を、AR又はVRとして応用する例をいくつか挙げる。
(5th example)
Here are some examples of applying the wearable device 1 as AR or VR.

第2ディスプレイ2がユーザの全周を囲うようなディスプレイとして準備される。地図アプリケーションを起動して、目的地を設定する。歩き始めると、アプリケーションにより、第2ディスプレイ2が変形し、目的地に向かうために歩く方向を示す矢印形の3Dウィジェットの形状となってもよい。 The second display 2 is prepared as a display that surrounds the entire circumference of the user. Launch the map application and set your destination. When you start walking, the application may transform the second display 2 into the shape of an arrow-shaped 3D widget that points you in the direction you are walking to your destination.

この場合、目的地に徒歩で向かう場合だけではなく、電車等の交通機関を使う場合には、目的地へと徒歩で向かう道のりではなく、駅へと向かう道のりを示すように第1ディスプレイ160に表示されてもよい。 In this case, not only when walking to the destination, but also when using transportation such as a train, the first display 160 is shown to show the way to the station instead of the way to the destination on foot. It may be displayed.

例えば、第2ディスプレイ2には、地図が矢印と重畳されて表示されてもよい。 For example, the map may be superimposed on the arrow on the second display 2.

別の例として、第2ディスプレイ2は、その矢印の形状を透過する形として存在し、処理部14は、第1ディスプレイ160の実際の後ろ側の景色と、この変形した第2ディスプレイ2とを重畳して、第1ディスプレイ160に表示させてもよい。この場合、ウェアラブルデバイス1は、例えば、第1ディスプレイ160の表示面とは逆側の映像情報を取得するカメラ101を有している。すなわち、ユーザは、ウェアラブルデバイス1の第1ディスプレイ160が、あたかもその領域に手首が存在しないかのように、現実世界の景色と第1ディスプレイ160の出力とをシームレスに表示することができる。このため、ユーザは、景色の中に、進むべき方向が示される映像を見ることができ、シームレスなナビゲーションシステムを利用することができる。 As another example, the second display 2 exists as a shape that transmits the shape of the arrow, and the processing unit 14 displays the actual rear view of the first display 160 and the deformed second display 2. It may be superimposed and displayed on the first display 160. In this case, the wearable device 1 has, for example, a camera 101 that acquires video information on the side opposite to the display surface of the first display 160. That is, the user can seamlessly display the view of the real world and the output of the first display 160 as if the first display 160 of the wearable device 1 had no wrist in the area. Therefore, the user can see an image showing the direction to go in the scenery, and can use a seamless navigation system.

さらに、この背景及び矢印の表示に重ねて、目的地(経由地を含む)までの時間が表示されてもよい。また、別の例として、駅に到着した後には、運賃を表示したり、目的の電車に乗ることができるプラットフォームの番号を表示したり、又は、直近の到着、発車する電車の時間等を表示してもよい。時間の表示は、例えば、到着、発車までの残り時間としてもよい。 Further, the time to the destination (including the waypoint) may be displayed on the background and the display of the arrow. As another example, after arriving at the station, the fare is displayed, the number of the platform on which the target train can be boarded is displayed, or the latest arrival, the time of the departing train, etc. are displayed. You may. The time display may be, for example, the remaining time until arrival and departure.

(第6例)
ウェアラブルデバイス1は、翻訳機として動作してもよい。例えば、ユーザは、理解できない外国語を見たときに、そちら側にウェアラブルデバイス1を向けることにより、当該外国語を日本語に翻訳した結果を見ることができる。処理部14は、翻訳した結果を第2ディスプレイ2に表示させ、第1ディスプレイ160において、この第2ディスプレイ2の表示を背景表示と重畳して表示させることにより、ユーザに翻訳結果を出力してもよい。
(6th example)
The wearable device 1 may operate as a translator. For example, when a user sees a foreign language that he / she does not understand, he / she can see the result of translating the foreign language into Japanese by pointing the wearable device 1 at that side. The processing unit 14 displays the translated result on the second display 2, and outputs the translation result to the user by displaying the display of the second display 2 superimposed on the background display on the first display 160. May be good.

別の例として、外国語をシースルー表示するのではなく、母国語の表示を外国語の上に、外国語領域を塗りつぶした上で表示してもよい。母国語の表示に対してタップ等のジェスチャを入力することにより、母国語でその表示を読み上げる動作をしてもよい。 As another example, instead of displaying the foreign language through see-through, the display of the native language may be displayed on the foreign language with the foreign language area filled in. By inputting a gesture such as a tap on the display in the native language, the display may be read aloud in the native language.

逆に、母国語に対してウェアラブルデバイス1をかざすことにより、任意の言語への翻訳をしてもよい。この場合、翻訳後の文章に対してタップ等のジェスチャをすると、音声によりその翻訳後の文章を読み上げる動作をしてもよい。 Conversely, translation into any language may be performed by holding the wearable device 1 over the mother tongue. In this case, if a gesture such as tapping is performed on the translated text, the translated text may be read aloud by voice.

(第7例)
上記の第5例と同様に、第2ディスプレイ2がユーザの全周となっているウェアラブルデバイス1を装着する。遠隔カメラアプリを起動することにより、例えば、自宅のロボットを介した映像が第2ディスプレイ2に表示される。ロボットは、例えば、360度の映像情報、音情報等を取得できるセンサを備える。
(7th example)
Similar to the fifth example above, the wearable device 1 in which the second display 2 covers the entire circumference of the user is attached. By activating the remote camera application, for example, an image via a robot at home is displayed on the second display 2. The robot is equipped with, for example, a sensor capable of acquiring 360-degree video information, sound information, and the like.

腕や顔を動かすことにより、第1ディスプレイ160に表示される第2ディスプレイ2の領域が腕や顔の動きに対応する方向に移動してもよい。すなわち、腕や顔を動かすことにより、第1ディスプレイ160を介して第2ディスプレイ2に表示されている自宅の様子を、物理的、空間的な整合性を保ちながら映像として取得できる。 By moving the arm or face, the area of the second display 2 displayed on the first display 160 may be moved in the direction corresponding to the movement of the arm or face. That is, by moving the arm or face, the state of the house displayed on the second display 2 via the first display 160 can be acquired as an image while maintaining physical and spatial consistency.

ロボットは、例えば、ウェアラブルデバイス1を介したユーザの指示に従い決められた動線又は任意の動線を移動可能であってもよい。ロボットは、例えば、部屋間を移動することができる。ユーザの指示は、例えば、腕、顔等のジェスチャ、又は、音声入力を解析し、その結果が、ウェアラブルデバイス1から通信部18を介してロボットへと伝達されてもよい。 The robot may be able to move, for example, a flow line determined according to a user's instruction via the wearable device 1 or an arbitrary flow line. The robot can move between rooms, for example. The user's instruction may be analyzed, for example, a gesture such as an arm or a face, or a voice input, and the result may be transmitted from the wearable device 1 to the robot via the communication unit 18.

例えば、留守中の自宅の様子、ペットの様子等をモニタすることができる。 For example, it is possible to monitor the state of the home, the state of the pet, etc. while they are away.

また、別の例として、遠隔操作ロボットが自宅ではなく、遠隔介護のモニタするデバイスとして備えられてもよい。この場合、介護対象の家の中をロボットが移動し、種々の情報を感知して第2ディスプレイ2が映し出している仮想空間を介してユーザへと出力する。もちろん、映像だけではなく、音の情報をも出力するものであってもよい。ユーザは、介護対象の状態をチェックすることが可能となる。この場合、セキュリティ関係上表示させるのが好ましく無い対象は、ロボット側において表示しないように処理をして、通信し、ウェアラブルデバイス1の第2ディスプレイ2に表示してもよい。 Further, as another example, the remote-controlled robot may be provided as a monitoring device for remote care instead of at home. In this case, the robot moves in the house to be cared for, senses various information, and outputs it to the user via the virtual space projected by the second display 2. Of course, not only video but also sound information may be output. The user can check the status of the long-term care target. In this case, the target that is not preferable to be displayed for security reasons may be processed so as not to be displayed on the robot side, communicated, and displayed on the second display 2 of the wearable device 1.

ユーザは、ウェアラブルデバイス1を介してロボットに移動以外の行動をさせてもよい。例えば、ユーザの声をロボットから出力してもよい。逆にロボットが感知した音声を、ウェアラブルデバイス1のスピーカ161から出力してもよい。このように、遠隔地に存在するロボットを介して、インタラクティブな他のユーザ、又は、遠隔環境とのやりとりが可能であってもよい。 The user may cause the robot to perform an action other than movement via the wearable device 1. For example, the voice of the user may be output from the robot. Conversely, the voice detected by the robot may be output from the speaker 161 of the wearable device 1. In this way, it may be possible to interact with another interactive user or a remote environment via a robot existing in a remote location.

いずれの場合であっても、ロボットの周辺にある他のデバイスにウェアラブルデバイス1からアクセスできる実装であってもよい。例えば、ウェアラブルデバイス1の第2ディスプレイ2の一部に、あらかじめロボットに登録がされているPC、スマートフォン、タブレット端末等の画面を表示してもよい。ユーザは、第1ディスプレイ160を介して第2ディスプレイ2を見ることにより、ロボットの周辺にあるデバイスに表示されている内容を閲覧したり、又は、当該デバイスを操作したりすることができる。 In either case, the implementation may be such that the wearable device 1 can access other devices around the robot. For example, the screen of a PC, a smartphone, a tablet terminal, or the like registered in the robot in advance may be displayed on a part of the second display 2 of the wearable device 1. By viewing the second display 2 through the first display 160, the user can view the contents displayed on the device around the robot or operate the device.

(第8例)
次に、複数のデバイスが連携して動作する例について説明する。
(8th example)
Next, an example in which a plurality of devices operate in cooperation with each other will be described.

リモートデスクトップアプリケーションにより、遠隔地にあるPCのモニタの内容を、ウェアラブルデバイス1を用いて取得できる構成としてもよい。例えば、会社にあるPCにVPN(Virtual Private Network)等でアクセスし、当該PCのモニタ、又は、当該PCから出力される映像信号の表示領域の形状、大きさに合わせて、第2ディスプレイ2の形状等を変化させてもよい。 The remote desktop application may be configured so that the contents of the monitor of a remote PC can be acquired by using the wearable device 1. For example, a PC in a company is accessed by VPN (Virtual Private Network) or the like, and the monitor of the PC or the display area of the video signal output from the PC is matched to the shape and size of the display area of the second display 2. The shape and the like may be changed.

そして、リモートデスクトップアプリケーションを介して、ユーザが第1ディスプレイ160に表示される第2ディスプレイ2の一部又は全部の領域において、当該PCを操作することができるように、処理部14は、処理を実行してもよい。例えば、このような実装とすれば、ウェアラブルデバイス1から、会社のPC内に保存されている書類等を確認することも可能である。 Then, the processing unit 14 processes the PC so that the user can operate the PC in a part or the whole area of the second display 2 displayed on the first display 160 via the remote desktop application. You may do it. For example, with such an implementation, it is possible to check documents and the like stored in the company's PC from the wearable device 1.

続いて、当該PCとの接続を切断し、別のデバイスにアクセスすることにより、第2ディスプレイ2の形状を変化させてもよい。例えば、当該PCからウェアラブルデバイス1を切断し、自宅にあるタブレット端末にアクセスする通信を確立する。処理部14は、アクセスのターゲットとなるデバイスに合わせて第2ディスプレイ2の形状を変化させる。例えば、PCのモニタの表示領域の形状であった第2ディスプレイ2の形状が、タブレット端末の表示領域の形状の形状へと変化する。ユーザは、ウェアラブルデバイス1から、タブレット端末の操作を実行することができる。そして、自宅に戻った後に、タブレット端末を実際に操作することにより、ウェアラブルデバイス1を介して実行した操作の続きを実行することも可能である。 Subsequently, the shape of the second display 2 may be changed by disconnecting from the PC and accessing another device. For example, disconnect the wearable device 1 from the PC and establish communication to access the tablet terminal at home. The processing unit 14 changes the shape of the second display 2 according to the device to be accessed. For example, the shape of the second display 2, which was the shape of the display area of the monitor of the PC, changes to the shape of the display area of the tablet terminal. The user can execute the operation of the tablet terminal from the wearable device 1. Then, after returning to the home, it is possible to execute the continuation of the operation performed through the wearable device 1 by actually operating the tablet terminal.

(第9例)
遠隔地にあるTV等と同期してウェアラブルデバイス1に映像、又は、その他信号が通知されてもよい。例えば、自宅のTVが起動すると、その通知がウェアラブルデバイス1を介してユーザにされてもよい。そして、第2ディスプレイ2は、当該TVの表示領域の形状と変化し、当該TVに表示されている内容をリアルタイムに表示してもよい。著作権法において各権利と抵触する映像は、ウェアラブルデバイス1には送信されないようにしてもよい。この場合、どのチャンネル、又は、どのようなコンテンツが表示されているかについての情報を第2ディスプレイ2側に表示してもよい。
(9th example)
A video or other signal may be notified to the wearable device 1 in synchronization with a TV or the like in a remote place. For example, when the home TV is turned on, the notification may be sent to the user via the wearable device 1. Then, the second display 2 may change the shape of the display area of the TV and display the contents displayed on the TV in real time. Images that conflict with each right under copyright law may not be transmitted to the wearable device 1. In this case, information about which channel or what kind of content is displayed may be displayed on the second display 2 side.

上記と同様に、ウェアラブルデバイス1から当該TVの操作をすることも可能である。例えば、チャンネルを変更することも可能であるし、また、ゲームが長時間実行されている状態では、当該TVの電源を落とす処理を実行してもよい。 Similar to the above, it is also possible to operate the TV from the wearable device 1. For example, it is possible to change the channel, and when the game is running for a long time, a process of turning off the power of the TV may be executed.

(第10例)
上記のように複数のデバイスを1人のユーザが用いるのではなく、逆に、1つの第2ディスプレイ2の少なくとも一部の所定の領域を複数のユーザで共有してもよい。このような形態においては、例えば、仮想空間内のオブジェクトを用いた会議システムなどが考えられる。
(10th example)
Instead of using the plurality of devices by one user as described above, conversely, at least a predetermined area of one second display 2 may be shared by the plurality of users. In such a form, for example, a conference system using an object in a virtual space can be considered.

例えば、複数のユーザがウェアラブルデバイス1を装着し、共有する仮想空間を第2ディスプレイ2に表示させてもよい。そのうち1人がジェスチャ入力により、仮想空間内の3Dオブジェクトをつまむ動作を行い、移動させる動作を行うと、当該仮想空間を共有して閲覧している他のユーザの第2ディスプレイ2内のオブジェクトも移動する。同様に、オブジェクトを変形させると、他のユーザの第2ディスプレイ2内のオブジェクトも変形する。このように、ネットワークを介して他のユーザと3Dオブジェクトを共有することも可能である。もちろん、第2ディスプレイ2の表示は、個々のユーザにより第1ディスプレイ160を介して望ましい位置、姿勢から閲覧することが可能である。 For example, a plurality of users may wear the wearable device 1 and display the shared virtual space on the second display 2. When one of them uses gesture input to pinch a 3D object in the virtual space and move it, the object in the second display 2 of another user who shares and browses the virtual space also Moving. Similarly, transforming an object also transforms the object in the second display 2 of another user. In this way, it is also possible to share 3D objects with other users over the network. Of course, the display of the second display 2 can be viewed by an individual user from a desirable position and posture via the first display 160.

さらに、1人のユーザが、自らの第2ディスプレイ2内の他の仮想空間から、共有している仮想空間にオブジェクトを移動させてもよい。この場合、他のユーザは、今まで共有している仮想空間内に存在しなかったオブジェクトを共有することが可能となる。 Further, one user may move an object from another virtual space in his / her second display 2 to a shared virtual space. In this case, other users can share objects that did not exist in the virtual space that they have shared so far.

上記は、例えば、同じ会議室内で複数人が何もない空間に向かってウェアラブルデバイス1を向けている場合を想定している。ウェアラブルデバイス1のユーザと逆側に備えられるカメラ101を介して他のユーザの相対位置を把握することにより、第2ディスプレイ2内に他のユーザを表示させてもよい。また、前述したいくつかの実施形態と同様に、第2ディスプレイ2として存在するVR空間を、第1ディスプレイ160を介してARとして知覚することも可能である。 The above assumes, for example, a case where a plurality of people are pointing the wearable device 1 toward an empty space in the same conference room. The other user may be displayed in the second display 2 by grasping the relative position of the other user through the camera 101 provided on the opposite side to the user of the wearable device 1. Further, as in some of the above-described embodiments, it is also possible to perceive the VR space existing as the second display 2 as AR through the first display 160.

さらには、この会議は、ネットワークを介して行われてもよい。この場合、ウェアラブルデバイス1の方向等に基づいて、各ユーザのいる位置が仮想的に設定されてもよい。また、各ユーザは、仮想空間内の座席を指定することにより、各ユーザ自身が仮想空間内に仮想的に存在するような実装としてもよい。この場合、複数のユーザは、別々の位置に存在する必要は無く、同じ位置、又は、重なる位置に存在していてもよい。この場合、1人のユーザがオブジェクトを操作すると、同じ角度からそのオブジェクトの様子を第2ディスプレイ2から第1ディスプレイ160を介して閲覧することも可能である。 Furthermore, this conference may be held via a network. In this case, the position where each user is located may be virtually set based on the direction of the wearable device 1 and the like. Further, each user may be implemented so that each user virtually exists in the virtual space by designating a seat in the virtual space. In this case, the plurality of users do not have to exist at different positions, but may exist at the same position or at overlapping positions. In this case, when one user operates the object, the state of the object can be viewed from the second display 2 through the first display 160 from the same angle.

(第11例)
次に、仮想ディスプレイを用いて、視覚能力を拡張するユースケースについて説明する。
(Example 11)
Next, a use case for expanding visual ability using a virtual display will be described.

ウェアラブルデバイス1は、第2ディスプレイ2に、例えば、本を読むためのアプリケーションを表示することができる。このようなアプリケーションの場合、文字が羅列しているため、視力によっては、ユーザがその文字を正確に読み取れないことがある。例えば、近視のユーザであれば近くにある文字は読めるが、遠くの小さい文字を読むことが困難であるし、遠視のユーザであれば遠くの文字は読めるが、近くにある小さい文字を読むことが困難である。 The wearable device 1 can display, for example, an application for reading a book on the second display 2. In such an application, the characters are enumerated, and depending on the eyesight, the user may not be able to read the characters accurately. For example, a myopia user can read nearby characters but has difficulty reading distant small characters, and a hyperopic user can read distant characters but can read nearby small characters. Is difficult.

そこで、第2ディスプレイ2は、視力に基づいた表示を行い、この表示に基づいて第1ディスプレイ160に文字等を出力してもよい。例えば、ウェアラブルデバイス1は、第1ディスプレイ160として網膜に直接光を照射するタイプの発光素子を備えていてもよい。このような第1ディスプレイ160及び第2ディスプレイ2を備えることにより、ユーザの視力及び目とウェアラブルデバイス1の距離に基づいて、適切な出力をすることにより、ユーザに適切に文字等を出力することが可能となる。例えば、処理部14は、ユーザの視力に基づいた適切な表示を第2ディスプレイ2にし、この第2ディスプレイ2の表示に基づいて、視力の特性に最適な光線を計算し、第1ディスプレイ160を発光させてもよい。 Therefore, the second display 2 may display based on the visual acuity and output characters or the like to the first display 160 based on this display. For example, the wearable device 1 may include a light emitting element of a type that directly irradiates the retina with light as the first display 160. By providing such a first display 160 and a second display 2, characters and the like can be appropriately output to the user by appropriately outputting based on the user's eyesight and the distance between the eyes and the wearable device 1. Is possible. For example, the processing unit 14 sets an appropriate display based on the user's visual acuity to the second display 2, calculates the optimum light beam for the characteristics of the visual acuity based on the display of the second display 2, and displays the first display 160. It may emit light.

また、これは、ほんのリーダーアプリケーションだけではなく、例えば、ウェブブラウザといったコンテンツに文字を含んだり、細かい情報を含んだりする場合にも適用することが可能である。 It can also be applied not only to just a reader application, but also to content such as a web browser that contains characters or contains detailed information.

(第12例)
ウェアラブルデバイス1は、暗視カメラとして動作することも可能である。例えば、色が識別できない、又は、光をほとんど感じられない程度の暗闇において、入力部10として赤外線カメラを備えていてもよい。処理部14は、第2ディスプレイ2に、この赤外線カメラで取得した周囲の環境が表示されていてもよい。
(12th example)
The wearable device 1 can also operate as a night-vision camera. For example, an infrared camera may be provided as the input unit 10 in the darkness where the colors cannot be identified or the light is hardly perceived. The processing unit 14 may display the surrounding environment acquired by the infrared camera on the second display 2.

ユーザは、暗闇において、見たい方向にウェアラブルデバイス1をかざすことにより、この第2ディスプレイ2に表示されている暗視映像を第1ディスプレイ160に表示することが可能である。 By holding the wearable device 1 in the desired direction in the dark, the user can display the dark-sighted image displayed on the second display 2 on the first display 160.

また、赤外線ではなく、ウェアラブルデバイス1は、紫外線を取得するカメラとアプレケーションを備えていてもよい。この場合、例えば、日中における紫外線の強さなどを考慮した映像を第2ディスプレイ2に表示しておき、ユーザが見たい範囲にウェアラブルデバイス1をかざすことにより、紫外線の状態を、第1ディスプレイ160を介して感知することができる。この場合、第2ディスプレイ2に表示されている紫外線の感知表示と、同じ範囲を撮影している映像とを重畳して第1ディスプレイ160に表示することも可能である。 Also, instead of infrared light, the wearable device 1 may be equipped with a camera and an application that captures ultraviolet light. In this case, for example, an image considering the intensity of ultraviolet rays in the daytime is displayed on the second display 2, and the wearable device 1 is held over the range desired by the user to display the state of ultraviolet rays on the first display. It can be sensed through 160. In this case, it is also possible to superimpose the detection display of the ultraviolet rays displayed on the second display 2 and the image of shooting the same range and display them on the first display 160.

いずれの場合においても、センサにより可視光外の光を感知するのみならず、可視光外の光を照射する発光素子を備えていてもよい。そして、これらの発光素子から射出された光の反射光をセンサにより感知してもよい。尤も、通常のサーマルセンサのように、赤外線を取得するサーモグラフとして、暗視以外の状況に対しても利用できるものであってもよい。サーモグラフとして用いる場合には、赤外線のみならず、紫外線の情報をも併せて取得してもよい。 In either case, the sensor may include a light emitting element that not only senses light outside visible light but also irradiates light outside visible light. Then, the reflected light of the light emitted from these light emitting elements may be sensed by the sensor. However, as a thermograph that acquires infrared rays, such as a normal thermal sensor, it may be usable for situations other than night vision. When used as a thermograph, not only infrared rays but also ultraviolet rays may be acquired together.

このように、人間には見えない可視光領域外の光を受光して、第2ディスプレイ2を用いて任意に実際の背景と重畳することにより、種々の目的においてウェアラブルデバイス1を利用することが可能となる。 In this way, the wearable device 1 can be used for various purposes by receiving light outside the visible light region invisible to humans and arbitrarily superimposing it on the actual background using the second display 2. It will be possible.

(第13例)
上記においては、赤外線、紫外線について述べたが、これには限られない。例えば、受光素子によっては、人間の目よりも細かい輝度の解像度を有するセンサも存在する。このような高感度のセンサと、高感度のセンサよりは低感度のセンサと、を組み合わせることにより、ダイナミックレンジの補正を実現してもよい。
(13th example)
In the above, infrared rays and ultraviolet rays have been described, but the present invention is not limited to this. For example, depending on the light receiving element, there is also a sensor having a resolution of brightness finer than that of the human eye. By combining such a high-sensitivity sensor and a sensor having a lower sensitivity than a high-sensitivity sensor, the dynamic range may be corrected.

例えば、処理部14は、カメラ101から取得した感知情報に基づいて、HDR(High Dynamic Range)画像を第2ディスプレイ2に表示してもよい。そして、ユーザがウェアラブルデバイス1をかざした方向のHDR画像を第1ディスプレイ160に表示させてもよい。このように、ユーザが見たい範囲だけをHDR画像に変換することも、第2ディスプレイ2及び第1ディスプレイ160を用いることにより容易に実現することが可能となる。 For example, the processing unit 14 may display an HDR (High Dynamic Range) image on the second display 2 based on the sensing information acquired from the camera 101. Then, the HDR image in the direction in which the user holds the wearable device 1 may be displayed on the first display 160. In this way, it is possible to easily convert only the range desired by the user into an HDR image by using the second display 2 and the first display 160.

(第14例)
ウェアラブルデバイス1は、望遠鏡アプリケーションを備えていてもよい。例えば、カメラ101において光学的に、又は、処理部14においてデジタル処理により、望遠画像を取得し、処理部14は、この望遠画像を第2ディスプレイ2に表示しておいてもよい。カメラ101は、例えば、ウェアラブルデバイス1の第1ディスプレイ160の表示面と逆側を撮影するように備えられる。ユーザが遠くを見たい方向にウェアラブルデバイス1をかざすことにより、第1ディスプレイ160に、望遠鏡を介して取得したような映像等を表示することができる。
(14th example)
The wearable device 1 may include a telescope application. For example, the camera 101 may acquire a telephoto image optically or digitally in the processing unit 14, and the processing unit 14 may display the telephoto image on the second display 2. The camera 101 is provided, for example, to photograph the side opposite to the display surface of the first display 160 of the wearable device 1. By holding the wearable device 1 in the direction in which the user wants to see far away, the first display 160 can display an image or the like acquired through a telescope.

さらに、例えば、インカメラにより、ユーザの目の映像等を取得しておき、ユーザが目を細めるジェスチャをした場合に、処理部14は、焦点距離をより遠くにしたり、又は、画角をより狭めたりして、より遠くの映像までを精密に取得できる状態としてもよい。そして、第2ディスプレイ2において、表示をして、ユーザは、第1ディスプレイ160を介してより遠くの映像を取得してもよい。 Further, for example, when an image of the user's eyes is acquired by an in-camera and the user makes a gesture of squinting, the processing unit 14 makes the focal length farther or the angle of view more. It may be narrowed so that even a farther image can be accurately acquired. Then, by displaying on the second display 2, the user may acquire a farther image through the first display 160.

また、別の例としては、第2ディスプレイ2として距離に応じた複数の表示面を仮想的に設定しておき、それぞれの面における映像等が表示されていてもよい。ユーザの目を細める等のジェスチャを感知すると、処理部14は、第1ディスプレイ160に投影される第2ディスプレイ2を切り替えて、別の焦点距離の画像を出力してもよい。 Further, as another example, a plurality of display surfaces according to the distance may be virtually set as the second display 2, and images and the like on each surface may be displayed. Upon detecting a gesture such as squinting the user, the processing unit 14 may switch the second display 2 projected on the first display 160 to output an image having a different focal length.

(第15例)
上記の望遠鏡と同様に、ウェアラブルデバイス1は、顕微鏡アプリケーションを備えていてもよい。実装は、上記の望遠鏡アプリケーションとほぼ同等である。顕微鏡アプリケーションにおいては、ユーザが目を細めることにより、拡大した画像を出力する構成であってもよい。
(15th example)
Similar to the telescope described above, the wearable device 1 may include a microscope application. The implementation is similar to the telescope application described above. In a microscope application, the user may squint to output a magnified image.

(第16例)
ウェアラブルデバイス1は、腕時計型とアイウェアとを兼用して利用できるものであってもよい。例えば、運動をする場合には、腕時計型のウェアラブルデバイス1として利用し、激しく動かない場合等には、変形してアイウェアとして利用してもよい。例えば、腕時計型のウェアラブルデバイス1において、腕から外し、バンドを折り曲げることにより、耳に掛けることが可能なアイウェアと変形する形態であってもよい。
(16th example)
The wearable device 1 may be used for both a wristwatch type and eyewear. For example, when exercising, it may be used as a wristwatch-type wearable device 1, and when it does not move violently, it may be deformed and used as eyewear. For example, in a wristwatch-type wearable device 1, it may be deformed into eyewear that can be worn on the ear by removing it from the arm and bending the band.

このように変形することにより、スポーツ中にはモバイル性が求められるウェアラブルデバイス1として利用し、集中するときや激しい動きが無い状態では、アイウェアとして利用することが可能である。もちろん、このウェアラブルデバイス1は、上述した任意のアプリケーション、モジュール等を実装することも可能である。 By deforming in this way, it can be used as a wearable device 1 that requires mobility during sports, and can be used as eyewear when concentrating or when there is no vigorous movement. Of course, this wearable device 1 can also implement any of the above-mentioned applications, modules, and the like.

ユーザインタフェースは、フォームファクタのモード等に応じて適切に変更されるものであってもよい。 The user interface may be appropriately changed according to the mode of the form factor and the like.

(第17例)
ウェアラブルデバイス1は、人の多い状況で用いられることも考えられる。このような場合、ウェアラブルデバイス1の第1ディスプレイ160に表示される内容が他の人間に見られる可能性がある。また、ウェアラブルデバイス1を他の人間に利用される可能性もある。
(17th example)
Wearable device 1 may be used in a situation with many people. In such a case, the content displayed on the first display 160 of the wearable device 1 may be seen by other people. There is also the possibility that the wearable device 1 will be used by other people.

インカメラを備えることにより、ウェアラブルデバイス1のよりセキュアな利用をすることもできる。例えば、ウェアラブルデバイス1の記憶部12にあらかじめユーザの顔の情報、例えば、特徴量の情報を格納しておき、顔認証ができるようにしておく。この認証は、機械学習により訓練された学習済モデルを用いてもよい。 By providing an in-camera, it is possible to use the wearable device 1 more securely. For example, the user's face information, for example, the feature amount information is stored in advance in the storage unit 12 of the wearable device 1 so that face authentication can be performed. This certification may use a trained model trained by machine learning.

そして、複数の人間がインカメラにより感知された場合、処理部14は、この複数の人間から、ユーザのいる方向をカメラ101の取得した情報に基づいて推定する。この推定も、学習済モデルを用いてもよい。 Then, when a plurality of humans are sensed by the in-camera, the processing unit 14 estimates the direction in which the user is from the plurality of humans based on the information acquired by the camera 101. This estimation may also use a trained model.

そして、第2ディスプレイ2に表示されている内容を、ユーザに向けて出力するように、第1ディスプレイ160を発光等させてもよい。第1ディスプレイ160は、例えば、指向性を持たせて投影することが可能であるディスプレイであってもよく、このようなディスプレイを用いることにより、ユーザにはコンテンツが閲覧できるが、周りにいる人間からは第2ディスプレイ2に表示されている映像等のコンテンツが閲覧できないように、表示をすることができる。 Then, the first display 160 may be made to emit light or the like so that the content displayed on the second display 2 is output to the user. The first display 160 may be, for example, a display capable of projecting with directivity. By using such a display, the user can view the content, but a person around him / her can view the content. From now on, it is possible to display the contents such as the video displayed on the second display 2 so that they cannot be viewed.

前述した実施形態は、以下のような形態としてもよい。 The above-described embodiment may have the following embodiments.

(1)
処理回路と、
第1ディスプレイと、
を備え、
前記処理回路は、
仮想的な第2ディスプレイを設定し、
前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、前記第2ディスプレイに対する前記第1ディスプレイの位置及び姿勢に基づいて、前記第1ディスプレイを介して表示する、
デバイス。
(1)
With the processing circuit
1st display and
Equipped with
The processing circuit is
Set up a virtual second display,
A part or all of the video signal virtually projected on the second display is displayed via the first display based on the position and orientation of the first display with respect to the second display.
device.

(2)
センサ、をさらに備え、
前記処理回路は、
前記センサの感知情報に基づいて、前記第1ディスプレイに前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を表示する、
(1)に記載のデバイス。
(2)
With more sensors,
The processing circuit is
Based on the sensing information of the sensor, the first display displays a part or all of the video signal virtually projected on the second display.
The device described in (1).

(3)
前記センサは、慣性センサであり、
前記処理回路は、
前記慣性センサにより所定姿勢になったことを感知して、前記第1ディスプレイの表示を開始する、
(2)に記載のデバイス。
(3)
The sensor is an inertial sensor and
The processing circuit is
When the inertia sensor detects that the posture has been determined, the display of the first display is started.
The device described in (2).

(4)
前記処理回路は、
前記慣性センサにより所定ジェスチャが入力されたことを感知して、前記第1ディスプレイの表示を開始する、
(3)に記載のデバイス。
(Four)
The processing circuit is
Detecting that a predetermined gesture has been input by the inertia sensor, the display of the first display is started.
The device described in (3).

(5)
前記センサは、カメラである、
(2)から(4)のいずれかに記載のデバイス。
(Five)
The sensor is a camera.
The device according to any one of (2) to (4).

(6)
前記処理回路は、
前記カメラにより取得した情報に基づいて、ユーザの顔又はユーザの視線を認識して、前記第1ディスプレイに前記第2ディスプレイの一部又は全部の領域に表示される内容を表示する、
(5)のいずれかに記載のデバイス。
(6)
The processing circuit is
Based on the information acquired by the camera, the user's face or the user's line of sight is recognized, and the content displayed in a part or all of the area of the second display is displayed on the first display.
The device described in any of (5).

(7)
前記センサは、前記第1ディスプレイに付属するタッチパネルである、
(2)から(6)のいずれかに記載のデバイス。
(7)
The sensor is a touch panel attached to the first display.
The device according to any one of (2) to (6).

(8)
前記処理回路は、前記センサにより取得されたジェスチャに基づいて、所定処理を実行する、
(2)から(7)のいずれかに記載のデバイス。
(8)
The processing circuit executes a predetermined processing based on the gesture acquired by the sensor.
The device according to any one of (2) to (7).

(9)
前記処理回路は、
前記センサが感知した前記ジェスチャ情報に基づいて、前記第1ディスプレイの表示を開始する、
(8)に記載のデバイス。
(9)
The processing circuit is
Based on the gesture information sensed by the sensor, the display of the first display is started.
The device described in (8).

(10)
前記処理回路は、
前記センサが感知した前記ジェスチャ情報に基づいて、前記第1ディスプレイが表示する前記第2ディスプレイの領域又は姿勢を変更する、
(8)又は(9)に記載のデバイス。
(Ten)
The processing circuit is
The area or posture of the second display displayed by the first display is changed based on the gesture information sensed by the sensor.
The device according to (8) or (9).

(11)
前記処理回路は、
前記センサが感知した前記ジェスチャを、前記第1ディスプレイに表示する、
(8)から(10)のいずれかに記載のデバイス。
(11)
The processing circuit is
The gesture sensed by the sensor is displayed on the first display.
The device according to any one of (8) to (10).

(12)
前記処理回路は、
前記センサが感知した前記ジェスチャにアバターを付与して前記第1ディスプレイに表示する、
(11)に記載のデバイス。
(12)
The processing circuit is
An avatar is attached to the gesture detected by the sensor and displayed on the first display.
The device described in (11).

(13)
前記ジェスチャは、前記第1ディスプレイに対するジェスチャである、
(8)から(12)のいずれかに記載のデバイス。
(13)
The gesture is a gesture for the first display.
The device according to any one of (8) to (12).

(14)
前記ジェスチャは、前記第2ディスプレイに対するジェスチャである、
(8)から(13)のいずれかに記載のデバイス。
(14)
The gesture is a gesture for the second display.
The device according to any one of (8) to (13).

(15)
前記処理回路は、
前記ジェスチャに基づいて、前記第1ディスプレイに対する前記第2ディスプレイの位置を変更する、
(8)から(14)のいずれかに記載のデバイス。
(15)
The processing circuit is
The position of the second display with respect to the first display is changed based on the gesture.
The device according to any one of (8) to (14).

(16)
前記ジェスチャに対するフィードバック処理を実行する、フィードバック処理部、
をさらに備える、(8)から(15)のいずれかに記載のデバイス。
(16)
A feedback processing unit that executes feedback processing for the gesture.
The device according to any one of (8) to (15), further comprising.

(17)
前記フィードバック処理部は、バイブレータを備える、
(16)に記載のデバイス。
(17)
The feedback processing unit includes a vibrator.
The device described in (16).

(18)
前記フィードバック処理部は、スピーカを備える、
(16)又は(17)に記載のデバイス。
(18)
The feedback processing unit includes a speaker.
The device according to (16) or (17).

(19)
前記センサは、マイクであり、
前記処理回路は、
前記マイクが感知したユーザの音声情報に基づいて、所定処理を実行する、
(2)から(18)のいずれかに記載のデバイス。
(19)
The sensor is a microphone
The processing circuit is
A predetermined process is executed based on the voice information of the user sensed by the microphone.
The device according to any one of (2) to (18).

(20)
前記第1ディスプレイの表示は、ユーザ又は前記第1ディスプレイが移動した場合に、前記第2ディスプレイに対する相対的な運動による運動視差に基づいて変化する、
(2)から(19)のいずれかに記載のデバイス。
(20)
The display of the first display changes based on the motion parallax due to the relative movement with respect to the second display when the user or the first display moves.
The device according to any one of (2) to (19).

(21)
外部と情報を送受信する、通信部、をさらに備え、
前記処理回路は、
外部デバイスとの相対的な位置関係を前記通信部より受信し、当該位置関係に基づいて、第1ディスプレイの表示を更新する、
(1)から(20)のいずれかに記載のデバイス。
(twenty one)
It also has a communication unit that sends and receives information to and from the outside.
The processing circuit is
A relative positional relationship with an external device is received from the communication unit, and the display on the first display is updated based on the positional relationship.
The device according to any one of (1) to (20).

(22)
前記第1ディスプレイは、平面状又は曲面状の2次元のディスプレイである、
(1)から(21)のいずれかに記載のデバイス。
(twenty two)
The first display is a two-dimensional display having a flat surface or a curved surface.
The device according to any one of (1) to (21).

(23)
前記第1ディスプレイは、前記処理回路において仮想的に生成されるユーザの体の一部の形状を有する仮想ディスプレイであり、プロジェクタ機能を備える発光部から表示面としてユーザの体の一部を利用する、
(1)から(21)のいずれかに記載のデバイス。
(twenty three)
The first display is a virtual display having a shape of a part of the user's body that is virtually generated in the processing circuit, and uses a part of the user's body as a display surface from a light emitting unit having a projector function. ,
The device according to any one of (1) to (21).

(24)
前記第1ディスプレイは、3次元ディスプレイである、
(1)から(21)のいずれかに記載のデバイス。
(twenty four)
The first display is a three-dimensional display.
The device according to any one of (1) to (21).

(25)
前記第2ディスプレイは、3Dオブジェクトを投影する3次元的なディスプレイである、
(1)から(24)のいずれかに記載のデバイス。
(twenty five)
The second display is a three-dimensional display that projects a 3D object.
The device according to any one of (1) to (24).

(26)
前記第2ディスプレイは、ユーザと前記第1ディスプレイとの間に定義される、
(1)から(25)のいずれかに記載のデバイス。
(26)
The second display is defined between the user and the first display.
The device according to any one of (1) to (25).

(27)
前記第2ディスプレイは、ユーザから前記第1ディスプレイよりも遠くに定義される、
(1)から(25)のいずれかに記載のデバイス。
(27)
The second display is defined farther from the user than the first display.
The device according to any one of (1) to (25).

(28)
前記処理回路は、
前記第1ディスプレイを介して前記第2ディスプレイに表示されているコンテンツを表示するモードと、
前記コンテンツを前記第1ディスプレイに直接表示するモードと、
を切り替え可能である、
(1)から(27)のいずれかに記載のデバイス。
(28)
The processing circuit is
A mode for displaying the content displayed on the second display via the first display, and
A mode in which the content is displayed directly on the first display, and
Can be switched,
The device according to any one of (1) to (27).

(29)
前記デバイスは、ユーザの腕に装着するウェアラブルデバイスである、
(1)から(28)のいずれかに記載のデバイス。
(29)
The device is a wearable device worn on the user's arm.
The device according to any one of (1) to (28).

(30)
前記デバイスは、眼鏡型のウェアラブルデバイスであり、
前記第1ディスプレイは、前記眼鏡型のウェアラブルデバイスのレンズに備えられる、
(1)から(28)のいずれかに記載のデバイス。
(30)
The device is a spectacle-type wearable device.
The first display is provided in the lens of the eyeglass-type wearable device.
The device according to any one of (1) to (28).

(31)
前記第1ディスプレイは、ユーザからの視点に対して透過した表示をした上で、前記第2ディスプレイに表示されているコンテンツを重ねて表示する、
(1)から(30)のいずれかに記載のデバイス。
(31)
The first display displays the content transparent to the viewpoint from the user, and then superimposes the content displayed on the second display.
The device according to any one of (1) to (30).

(31)
前記第2ディスプレイは、複数ユーザがアクセスできる仮想空間内の仮想現実を投影するディスプレイであり、
前記デバイスにより、複数ユーザが同じ仮想現実を体験する、
(1)から(30)のいずれかに記載のデバイス。
(31)
The second display is a display that projects virtual reality in a virtual space that can be accessed by a plurality of users.
With the device, multiple users experience the same virtual reality.
The device according to any one of (1) to (30).

(32)
前記第2ディスプレイは、仮想空間内の仮想現実を投影するディスプレイであり、
前記仮想現実は、遠隔地に存在する別の装置のセンサの感知情報により再構成される、
(1)から(30)のいずれかに記載のデバイス。
(32)
The second display is a display that projects virtual reality in virtual space.
The virtual reality is reconstructed by the sensor detection information of another device located in a remote place.
The device according to any one of (1) to (30).

(33)
前記処理回路は、ユーザの視力に基づいて、前記第1ディスプレイに表示する内容を再構成する、
(1)から(32)のいずれかに記載のデバイス。
(33)
The processing circuit reconstructs the content displayed on the first display based on the user's visual acuity.
The device according to any one of (1) to (32).

(34)
前記処理回路は、周囲の明るさの環境に基づいて、前記第1ディスプレイにダイナミックレンジを変換した画像を表示する、
(1)から(33)のいずれかに記載のデバイス。
(34)
The processing circuit displays an image having a converted dynamic range on the first display based on an environment of ambient brightness.
The device according to any one of (1) to (33).

(35)
前記処理回路は、前記第1ディスプレイに望遠鏡を介した前記第2ディスプレイの一部又は全部の画像を表示する、
(1)から(34)のいずれかに記載のデバイス。
(35)
The processing circuit displays a part or all of an image of the second display via a telescope on the first display.
The device according to any one of (1) to (34).

(36)
前記処理回路は、前記第1ディスプレイに顕微鏡を介した前記第2ディスプレイの一部又は全部の画像を表示する、
(1)から(35)のいずれかに記載のデバイス。
(36)
The processing circuit displays an image of a part or all of the second display via a microscope on the first display.
The device according to any one of (1) to (35).

(37)
前記デバイスは、変形可能である、
(1)から(36)のいずれかに記載のデバイス。
(37)
The device is deformable,
The device according to any one of (1) to (36).

(38)
前記処理回路は、
デバイスを身につけているユーザの所定点を基準とする第1座標系と、
ユーザがデバイスを身につけている点を基準とする第2座標系と、
ユーザの目を基準とする第3座標系と、
前記第2ディスプレイの所定点を基準とする第4座標系と、
に基づいて、前記第1ディスプレイに表示する前記第2ディスプレイの領域及び方向を設定する、
(1)から(37)のいずれかに記載のデバイス。
(38)
The processing circuit is
The first coordinate system relative to a predetermined point of the user wearing the device,
A second coordinate system based on the point at which the user wears the device,
A third coordinate system relative to the user's eyes,
A fourth coordinate system based on a predetermined point on the second display, and
The area and direction of the second display to be displayed on the first display are set based on the above.
The device according to any one of (1) to (37).

(39)
前記処理回路は、
前記ユーザの所定点を基準に、前記第2ディスプレイの位置を仮想的に定義する、
(38)に記載のデバイス。
(39)
The processing circuit is
The position of the second display is virtually defined based on the predetermined point of the user.
The device described in (38).

(40)
前記処理回路は、
前記第2座標系における前記第1ディスプレイの位置を、前記第1座標系に変換し、
前記第3座標系におけるユーザの目の位置を、前記第1座標系に変換し、
ユーザの目から前記第1ディスプレイを介して前記第2ディスプレイを見た場合の前記第1ディスプレイに表示する領域を算出し、
前記第1ディスプレイに前記第2ディスプレイの一部又は全部の領域を表示する、
(39)に記載のデバイス。
(40)
The processing circuit is
The position of the first display in the second coordinate system is converted into the first coordinate system.
The position of the user's eyes in the third coordinate system is converted into the first coordinate system.
The area to be displayed on the first display when the second display is viewed from the user's eyes through the first display is calculated.
Displaying a part or all of the area of the second display on the first display,
The device according to (39).

(41)
前記処理回路は、オイラー角を用いて前記第2座標系から前記第1座標系への座標変換を実行する、
(40)に記載のデバイス。
(41)
The processing circuit performs coordinate transformation from the second coordinate system to the first coordinate system using Euler angles.
The device described in (40).

(42)
前記処理回路は、クォータニオンを用いて前記第2座標系から前記第1座標系への座標変換を実行する、
(40)に記載のデバイス。
(42)
The processing circuit uses a quaternion to perform a coordinate transformation from the second coordinate system to the first coordinate system.
The device described in (40).

(43)
前記処理回路は、回転行列を用いて前記第2座標系から前記第1座標系への座標変換を実行する、
(40)に記載のデバイス。
(43)
The processing circuit performs a coordinate transformation from the second coordinate system to the first coordinate system using a rotation matrix.
The device described in (40).

(44)
前記処理回路は、
前記第2ディスプレイからの相対的な前記第1ディスプレイの位置及び姿勢を算出し、
算出した前記第1ディスプレイの位置及び姿勢に基づいて、前記第2ディスプレイの一部又は全部に表示される内容を前記第1ディスプレイに投影変換して表示する、
(39)から(43)のいずれかに記載のデバイス。
(44)
The processing circuit is
The position and orientation of the first display relative to the second display are calculated.
Based on the calculated position and orientation of the first display, the contents displayed on a part or all of the second display are projected and converted to the first display for display.
The device according to any one of (39) to (43).

(45)
座標系には、直交座標系、円柱座標系又は球座標系を用いる、
(38)から(44)のいずれかに記載のデバイス。
(45)
A Cartesian coordinate system, a cylindrical coordinate system, or a spherical coordinate system is used as the coordinate system.
The device according to any one of (38) to (44).

(46)
処理回路に、(1)から(45)のいずれかに記載の処理をさせる、
制御方法。
(46)
Have the processing circuit perform the processing according to any one of (1) to (45).
Control method.

(47)
処理回路に、(1)から(45)のいずれかに記載の処理を実行させる、
プログラム。
(47)
Cause the processing circuit to execute the process according to any one of (1) to (45).
program.

本開示の態様は、前述した実施形態に限定されるものではなく、想到しうる種々の変形も含むものであり、本開示の効果も前述の内容に限定されるものではない。各実施形態における構成要素は、適切に組み合わされて適用されてもよい。すなわち、特許請求の範囲に規定された内容及びその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更及び部分的削除が可能である。 The embodiments of the present disclosure are not limited to the above-described embodiments, but include various possible modifications, and the effects of the present disclosure are not limited to the above-mentioned contents. The components in each embodiment may be applied in appropriate combinations. That is, various additions, changes and partial deletions are possible without departing from the conceptual idea and purpose of the present disclosure derived from the contents specified in the claims and their equivalents.

1:ウェアラブルデバイス、
10:入力部、
100:慣性センサ、101:カメラ、102:測距センサ、103:タッチセンサ、104:物理ボタン、105:マイク、106:心拍センサ、107:筋電センサ、108:体温センサ、109:発汗センサ、110:脳波センサ、111:位置センサ、
12:記憶部、
14:処理部、
16:出力部、
160:第1ディスプレイ、161:スピーカ、162:アクチュエータ、163:発光素子、
18:通信部、
2:第2ディスプレイ、
W:第1所定点、
R:第2所定点、
E:第3所定点、
V:第4所定点
1: Wearable device,
10: Input section,
100: inertial sensor, 101: camera, 102: distance measurement sensor, 103: touch sensor, 104: physical button, 105: microphone, 106: heart rate sensor, 107: myoelectric sensor, 108: body temperature sensor, 109: sweating sensor, 110: Brain wave sensor, 111: Position sensor,
12: Memory,
14: Processing department,
16: Output section,
160: 1st display, 161: speaker, 162: actuator, 163: light emitting element,
18: Communication Department,
2: 2nd display,
W: 1st predetermined point,
R: 2nd predetermined point,
E: Third predetermined point,
V: 4th predetermined point

Claims (20)

処理回路と、
第1ディスプレイと、
を備え、
前記処理回路は、
仮想的な第2ディスプレイを設定し、
前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、前記第2ディスプレイに対する前記第1ディスプレイの位置及び姿勢に基づいて、前記第1ディスプレイを介して表示する、
デバイス。
With the processing circuit
1st display and
Equipped with
The processing circuit is
Set up a virtual second display,
A part or all of the video signal virtually projected on the second display is displayed via the first display based on the position and orientation of the first display with respect to the second display.
device.
センサ、をさらに備え、
前記処理回路は、
前記センサの感知情報に基づいて、前記第1ディスプレイに前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を表示する、
請求項1に記載のデバイス。
With more sensors,
The processing circuit is
Based on the sensing information of the sensor, the first display displays a part or all of the video signal virtually projected on the second display.
The device of claim 1.
前記センサは、慣性センサ、カメラ、タッチパネル又はマイクである、
請求項2に記載のデバイス。
The sensor is an inertial sensor, a camera, a touch panel or a microphone.
The device according to claim 2.
前記処理回路は、
前記センサにより取得されたジェスチャに基づいて、所定処理を実行する、
請求項2に記載のデバイス。
The processing circuit is
A predetermined process is executed based on the gesture acquired by the sensor.
The device according to claim 2.
前記処理回路は、
前記センサが感知した前記ジェスチャの情報に基づいて、前記第1ディスプレイが表示する前記第2ディスプレイの領域又は姿勢を変更する、
請求項4に記載のデバイス。
The processing circuit is
The area or posture of the second display displayed by the first display is changed based on the information of the gesture sensed by the sensor.
The device of claim 4.
前記処理回路は、
前記ジェスチャに基づいて、前記第1ディスプレイに対する前記第2ディスプレイの位置を変更する、
請求項4に記載のデバイス。
The processing circuit is
The position of the second display with respect to the first display is changed based on the gesture.
The device of claim 4.
前記ジェスチャに対するフィードバック処理を実行する、フィードバック処理部、
をさらに備える、請求項4に記載のデバイス。
A feedback processing unit that executes feedback processing for the gesture.
4. The device of claim 4.
前記フィードバック処理部は、バイブレータ又はスピーカを備える、
請求項7に記載のデバイス。
The feedback processing unit includes a vibrator or a speaker.
The device of claim 7.
前記第1ディスプレイの表示は、ユーザ又は前記第1ディスプレイが移動した場合に、前記第2ディスプレイに対する相対的な運動による運動視差に基づいて変化する、
請求項2に記載のデバイス。
The display of the first display changes based on the motion parallax due to the relative movement with respect to the second display when the user or the first display moves.
The device according to claim 2.
前記第1ディスプレイは、平面状若しくは曲面状の2次元のディスプレイ、ユーザの体の一部に投影するプロジェクタ又は3次元ディスプレイである、
請求項1に記載のデバイス。
The first display is a planar or curved two-dimensional display, a projector or a three-dimensional display that projects onto a part of the user's body.
The device of claim 1.
前記第2ディスプレイは、平面状若しくは曲面状の2次元ディスプレイ、又は、3Dオブジェクトを投影する3次元ディスプレイである、
請求項1に記載のデバイス。
The second display is a two-dimensional display having a planar or curved surface, or a three-dimensional display that projects a 3D object.
The device of claim 1.
前記処理回路は、
前記第1ディスプレイを介して前記第2ディスプレイに表示されているコンテンツを表示するモードと、
前記コンテンツを前記第1ディスプレイに直接表示するモードと、
を切り替え可能である、
請求項1に記載のデバイス。
The processing circuit is
A mode for displaying the content displayed on the second display via the first display, and
A mode in which the content is displayed directly on the first display, and
Can be switched,
The device of claim 1.
腕時計型、又は、眼鏡型のウェアラブルデバイスである、
請求項1に記載のデバイス。
A wristwatch-type or eyeglass-type wearable device,
The device according to claim 1.
前記第1ディスプレイは、ユーザからの視点に対して透過した表示をした上で、前記第2ディスプレイに表示されているコンテンツを重ねて表示する、
請求項1に記載のデバイス。
The first display displays the content transparent to the viewpoint from the user, and then superimposes the content displayed on the second display.
The device of claim 1.
前記処理回路は、
デバイスを身につけているユーザの所定点を基準とする第1座標系と、
ユーザがデバイスを身につけている点を基準とする第2座標系と、
ユーザの目を基準とする第3座標系と、
前記第2ディスプレイの所定点を基準とする第4座標系と、
に基づいて、前記第1ディスプレイに表示する前記第2ディスプレイの領域及び方向を設定する、
請求項1に記載のデバイス。
The processing circuit is
The first coordinate system relative to a given point of the user wearing the device,
A second coordinate system based on the point at which the user wears the device,
A third coordinate system relative to the user's eyes,
A fourth coordinate system based on a predetermined point on the second display, and
The area and direction of the second display to be displayed on the first display are set based on the above.
The device of claim 1.
前記処理回路は、
前記ユーザの所定点を基準に、前記第2ディスプレイの位置を仮想的に定義する、
請求項15に記載のデバイス。
The processing circuit is
The position of the second display is virtually defined based on the predetermined point of the user.
The device of claim 15.
前記処理回路は、
前記第2座標系における前記第1ディスプレイの位置を、前記第1座標系に変換し、
前記第3座標系におけるユーザの目の位置を、前記第1座標系に変換し、
ユーザの目から前記第1ディスプレイを介して前記第2ディスプレイを見た場合の前記第1ディスプレイに表示する領域を算出し、
前記第1ディスプレイに前記第2ディスプレイの一部又は全部の領域を表示する、
請求項16に記載のデバイス。
The processing circuit is
The position of the first display in the second coordinate system is converted into the first coordinate system.
The position of the user's eyes in the third coordinate system is converted into the first coordinate system.
The area to be displayed on the first display when the second display is viewed from the user's eyes through the first display is calculated.
Displaying a part or all of the area of the second display on the first display,
The device of claim 16.
前記処理回路は、
前記第2ディスプレイからの相対的な前記第1ディスプレイの位置及び姿勢を算出し、
算出した前記第1ディスプレイの位置及び姿勢に基づいて、前記第2ディスプレイの一部又は全部に表示される内容を前記第1ディスプレイに投影変換して表示する、
請求項16に記載のデバイス。
The processing circuit is
The position and orientation of the first display relative to the second display are calculated.
Based on the calculated position and orientation of the first display, the contents displayed on a part or all of the second display are projected and converted to the first display for display.
The device of claim 16.
処理回路と、
第1ディスプレイと、
を備えるデバイスの制御方法であって、
前記処理回路により、
仮想的な第2ディスプレイを設定し、
前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、前記第2ディスプレイに対する前記第1ディスプレイの位置及び姿勢に基づいて、前記第1ディスプレイを介して表示する、
制御方法。
With the processing circuit
1st display and
It is a control method of a device equipped with
By the processing circuit
Set up a virtual second display,
A part or all of the video signal virtually projected on the second display is displayed via the first display based on the position and orientation of the first display with respect to the second display.
Control method.
処理回路に、
仮想的な第2ディスプレイを設定し、
前記第2ディスプレイに仮想的に投影される映像信号の一部又は全部を、前記第2ディスプレイに対する第1ディスプレイの位置及び姿勢に基づいて、前記第1ディスプレイを介して表示する、
方法を実行させるプログラム。
In the processing circuit
Set up a virtual second display,
A part or all of the video signal virtually projected on the second display is displayed through the first display based on the position and orientation of the first display with respect to the second display.
A program that runs the method.
JP2020098692A 2020-06-05 2020-06-05 Device, control method, and program Pending JP2021192178A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020098692A JP2021192178A (en) 2020-06-05 2020-06-05 Device, control method, and program
PCT/JP2021/018342 WO2021246134A1 (en) 2020-06-05 2021-05-14 Device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020098692A JP2021192178A (en) 2020-06-05 2020-06-05 Device, control method, and program

Publications (1)

Publication Number Publication Date
JP2021192178A true JP2021192178A (en) 2021-12-16

Family

ID=78830856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020098692A Pending JP2021192178A (en) 2020-06-05 2020-06-05 Device, control method, and program

Country Status (2)

Country Link
JP (1) JP2021192178A (en)
WO (1) WO2021246134A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152642A (en) * 2012-01-25 2013-08-08 Sharp Corp Terminal device, display system, control method of terminal device, control program of terminal device and recording medium storing the control program
US20130239063A1 (en) * 2012-03-06 2013-09-12 Apple Inc. Selection of multiple images
WO2015156128A1 (en) * 2014-04-07 2015-10-15 ソニー株式会社 Display control device, display control method, and program
JP2014197400A (en) * 2014-05-16 2014-10-16 日本電気株式会社 Liquid crystal display apparatus, mobile communication terminal device and liquid crystal display method
US9990078B2 (en) * 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects

Also Published As

Publication number Publication date
WO2021246134A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
EP3195105B1 (en) Management of content in a 3d holographic environment
US9728010B2 (en) Virtual representations of real-world objects
US9696547B2 (en) Mixed reality system learned input and functions
JP7095602B2 (en) Information processing equipment, information processing method and recording medium
AU2021290132C1 (en) Presenting avatars in three-dimensional environments
US20220130124A1 (en) Artificial reality system with varifocal display of artificial reality content
US20220269333A1 (en) User interfaces and device settings based on user identification
US20210349676A1 (en) Display device sharing and interactivity in simulated reality (sr)
KR20160060582A (en) Device and method for processing visual data, and related computer program product
US20220262080A1 (en) Interfaces for presenting avatars in three-dimensional environments
US20240077937A1 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
US20230316674A1 (en) Devices, methods, and graphical user interfaces for modifying avatars in three-dimensional environments
US20230359422A1 (en) Techniques for using in-air hand gestures detected via a wrist-wearable device to operate a camera of another device, and wearable devices and systems for performing those techniques
WO2021246134A1 (en) Device, control method, and program
US20240103636A1 (en) Methods for manipulating a virtual object
US20240104859A1 (en) User interfaces for managing live communication sessions
US20240104871A1 (en) User interfaces for capturing media and manipulating virtual objects
US20230152935A1 (en) Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments
US20230103161A1 (en) Devices, methods, and graphical user interfaces for tracking mitigation in three-dimensional environments
US20230171484A1 (en) Devices, methods, and graphical user interfaces for generating and displaying a representation of a user
WO2023196344A1 (en) Devices, methods, and graphical user interfaces for modifying avatars in three-dimensional environments
WO2022178132A1 (en) User interfaces and device settings based on user identification
WO2024064350A1 (en) User interfaces for capturing stereoscopic media
WO2024054433A2 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
EP4275108A1 (en) Interfaces for presenting avatars in three-dimensional environments